JP2011204190A - Document-processing method and document-processing system - Google Patents

Document-processing method and document-processing system Download PDF

Info

Publication number
JP2011204190A
JP2011204190A JP2010073470A JP2010073470A JP2011204190A JP 2011204190 A JP2011204190 A JP 2011204190A JP 2010073470 A JP2010073470 A JP 2010073470A JP 2010073470 A JP2010073470 A JP 2010073470A JP 2011204190 A JP2011204190 A JP 2011204190A
Authority
JP
Japan
Prior art keywords
unit
image
display
document
enlarged image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010073470A
Other languages
Japanese (ja)
Other versions
JP5554110B2 (en
Inventor
Masaru Sanada
勝 真田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010073470A priority Critical patent/JP5554110B2/en
Publication of JP2011204190A publication Critical patent/JP2011204190A/en
Application granted granted Critical
Publication of JP5554110B2 publication Critical patent/JP5554110B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • Editing Of Facsimile Originals (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily obtain the contents of documents which are hard to see or is hard to read documents.SOLUTION: A scanner 11 converts documents of paper medium arranged by a receiver into digital data, and a pickup image generating part 17a generates a pickup image from the digital data. A division part 17b divides the pickup image into a plurality of regions, and a display control part 17c controls a display part 12 to display the pickup image. An optical sensor of the display part 12 specifies the position of visible light emitted from a remote controller 20 on the display part 12, and a specification part 17d specifies the position of the visible light specified by the optical sensor on the display part 12 and specifies a region corresponding to the acquired position from a plurality of regions divided by the division part 17b. An expanded image generating part 17e generates an expanded image obtained by expanding the region specified by the specification part 17d, and a display control part 17c controls the display part 12 to display the expanded image.

Description

この発明は、文書処理方法および文書処理システムに関する。   The present invention relates to a document processing method and a document processing system.

従来、加齢による視力低下などの要因により文書を見たり読んだりすることが困難な人を支援するための装置の開発が進められている。   2. Description of the Related Art Conventionally, an apparatus for supporting a person who has difficulty in viewing or reading a document due to factors such as a reduction in visual acuity due to aging has been developed.

かかる装置としては、例えば、オートフォーカス機能により読書対象となる文書を高倍率で拡大する装置が知られている(例えば、非特許文献1参照)。   As such an apparatus, for example, an apparatus that enlarges a document to be read at a high magnification by an autofocus function is known (see, for example, Non-Patent Document 1).

“拡大読書器”、[online]、[平成22年3月23日検索]、インターネット<http://www.kougakudo.jp/newpage-6.html>“Enlarged reading device”, [online], [March 23, 2010 search], Internet <http://www.kougakudo.jp/newpage-6.html>

ところで、読者は、例えば、葉書などを読む場合、文書全体を見たり、文書の一部を読んだり、文書にある写真を見たりといったように、文書全体と文書のある部分とを交互に見たり読んだりすることが一般的である。しかし、上記した従来の技術は、読者が指定した特定の範囲を拡大するのみである。したがって、読者は、読書対象となる文書において、見たい範囲や読みたい範囲が拡大されるように上記した装置を操作する必要があった。   By the way, for example, when reading a postcard, the reader sees the entire document and a certain part of the document alternately, such as looking at the entire document, reading a part of the document, or looking at a photo in the document. It is common to read or read. However, the prior art described above only expands the specific range specified by the reader. Therefore, the reader has to operate the above-described device so that the range to be viewed and the range to be read are expanded in the document to be read.

すなわち、上記した従来の技術は、見えにくい、または、読みにくい文書の内容を容易に把握することが困難であるといった課題があった。   That is, the above-described conventional technique has a problem that it is difficult to easily grasp the contents of a document that is difficult to see or read.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、見えにくい、または、読みにくい文書の内容を容易に把握することが可能となる文書処理方法および文書処理システムを提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and a document processing method and a document processing system capable of easily grasping the contents of a document that is difficult to see or read. The purpose is to provide.

上述した課題を解決し、目的を達成するために、この方法は、利用者が配置した文書を撮影した画像を生成する撮影ステップと、前記撮影ステップにより生成された前記画像を複数の領域に分割する分割ステップと、前記撮影ステップにより生成された前記画像を所定の表示部に表示させるように制御する表示制御ステップと、前記表示制御ステップの制御により前記画像が前記所定の表示部に表示された状態で、当該所定の表示部に対して光送信装置から送信された光を検知する検知ステップと、前記検知ステップが検知した前記光の位置を取得し、当該取得した位置に対応する領域を前記分割ステップにより分割された前記複数の領域から特定する特定ステップと、前記特定ステップにより特定された領域を拡大した拡大画像を生成する拡大画像生成ステップと、前記拡大画像生成ステップにより生成された前記拡大画像を前記所定の表示部にてさらに表示するように制御する第二の表示制御ステップと、を含んだことを要件とする。   In order to solve the above-described problems and achieve the object, this method includes a shooting step for generating an image of a document placed by a user, and the image generated by the shooting step is divided into a plurality of regions. A dividing step, a display control step for controlling the image generated by the photographing step to be displayed on a predetermined display unit, and the image displayed on the predetermined display unit by the control of the display control step In the state, a detection step of detecting light transmitted from the optical transmission device to the predetermined display unit, a position of the light detected by the detection step is acquired, and an area corresponding to the acquired position is A specifying step for specifying from the plurality of regions divided by the dividing step, and an enlarged image in which the region specified by the specifying step is enlarged A large image generating step, the second display control step and the requirement that it contained be controlled so as to further display the enlarged image generated by the enlarged image generating step in the predetermined display unit.

また、このシステムは、文書に対して処理を行なう文書処理装置と、光を送信する光送信装置とを含む文書処理システムであって、前記文書処理装置は、利用者が配置した文書を撮影した画像を生成する撮影手段と、前記撮影手段により生成された前記画像を複数の領域に分割する分割手段と、前記撮影手段により生成された前記画像を所定の表示部に表示させるように制御する表示制御手段と、前記表示制御手段の制御により前記画像が前記所定の表示部に表示された状態で、当該所定の表示部に対して前記光送信装置から送信された光を検知する検知手段と、前記検知手段が検知した前記光の位置を取得し、当該取得した位置に対応する領域を前記分割手段により分割された前記複数の領域から特定する特定手段と、前記特定手段により特定された領域を拡大した拡大画像を生成する拡大画像生成手段と、前記拡大画像生成手段により生成された前記拡大画像を前記所定の表示部にてさらに表示するように制御する第二の表示制御手段と、を備えたことを要件とする。   Further, this system is a document processing system including a document processing device that processes a document and an optical transmission device that transmits light, and the document processing device photographs a document placed by a user. An imaging unit that generates an image, a dividing unit that divides the image generated by the imaging unit into a plurality of regions, and a display that controls the image generated by the imaging unit to be displayed on a predetermined display unit Control means, and detection means for detecting light transmitted from the optical transmission device to the predetermined display section in a state where the image is displayed on the predetermined display section under the control of the display control means; A specifying unit that acquires the position of the light detected by the detecting unit, and specifies a region corresponding to the acquired position from the plurality of regions divided by the dividing unit; and the specifying unit Enlarged image generating means for generating an enlarged image obtained by enlarging the determined area, and second display control for controlling to further display the enlarged image generated by the enlarged image generating means on the predetermined display unit And means.

開示の方法およびシステムによれば、見えにくい、または、読みにくい文書の内容を容易に把握することが可能となる。   According to the disclosed method and system, it is possible to easily grasp the contents of a document that is difficult to see or read.

図1は、実施例1に係る文書処理システムの構成を説明するための図である。FIG. 1 is a diagram for explaining the configuration of the document processing system according to the first embodiment. 図2は、実施例1に係るリモコンの外観例を説明するための図である。FIG. 2 is a diagram for explaining an example of the appearance of the remote control according to the first embodiment. 図3は、実施例1に係る文書処理装置の外観例を説明するための図である。FIG. 3 is a diagram for explaining an example of the appearance of the document processing apparatus according to the first embodiment. 図4は、実施例1に係る文書処理装置の構成を説明するための図である。FIG. 4 is a diagram for explaining the configuration of the document processing apparatus according to the first embodiment. 図5は、分割部を説明するための図である。FIG. 5 is a diagram for explaining the dividing unit. 図6は、表示制御部により表示される撮影画像の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of a captured image displayed by the display control unit. 図7は、受領者から照射される可視光の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of visible light emitted from the recipient. 図8は、特定部を説明するための図である。FIG. 8 is a diagram for explaining the specifying unit. 図9は、表示制御部により表示される拡大画像の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of an enlarged image displayed by the display control unit. 図10は、画像処理指示による拡大画像生成部および表示制御部の処理を説明するための図である。FIG. 10 is a diagram for explaining processing of the enlarged image generation unit and the display control unit in response to an image processing instruction. 図11は、実施例1に係る文書処理装置の処理を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining processing of the document processing apparatus according to the first embodiment. 図12は、実施例2に係るリモコンの外観例を説明するための図である。FIG. 12 is a diagram for explaining an example of the appearance of the remote control according to the second embodiment. 図13は、実施例2に係る文書処理装置の構成を説明するための図である。FIG. 13 is a diagram for explaining the configuration of the document processing apparatus according to the second embodiment. 図14は、音声出力制御部による判定処理を説明するための図である。FIG. 14 is a diagram for explaining determination processing by the audio output control unit. 図15は、音声出力制御部による音声出力処理を説明するための図である。FIG. 15 is a diagram for explaining audio output processing by the audio output control unit. 図16は、音声出力制御部の音声出力処理にともなう表示制御部の表示処理を説明するための図である。FIG. 16 is a diagram for explaining the display process of the display control unit accompanying the audio output process of the audio output control unit. 図17は、実施例2に係る文書処理装置の処理を説明するためのフローチャートである。FIG. 17 is a flowchart for explaining processing of the document processing apparatus according to the second embodiment.

以下に添付図面を参照して、この発明に係る文書処理方法および文書処理システムの実施例を詳細に説明する。なお、以下では、本発明に係る文書処理方法を実行する文書処理システムを実施例として説明する。   Exemplary embodiments of a document processing method and a document processing system according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, a document processing system that executes the document processing method according to the present invention will be described as an embodiment.

まず、図1を用いて、実施例1に係る文書処理システムの構成について説明する。図1は、実施例1に係る文書処理システムの構成を説明するための図である。   First, the configuration of the document processing system according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining the configuration of the document processing system according to the first embodiment.

実施例1に係る文書処理システムは、図1に示すように、発送者が発送した紙媒体の文書(例えば、葉書など)に対して処理を行なう文書処理装置10と、可視光を送信するリモコン20とを含む。ここで、図1に示す文書処理装置10およびリモコン20は、紙媒体の文書を受領した受領者が操作する装置である。   As shown in FIG. 1, the document processing system according to the first embodiment includes a document processing apparatus 10 that processes a paper medium document (for example, a postcard) sent by a sender, and a remote controller that transmits visible light. 20 and so on. Here, the document processing device 10 and the remote controller 20 shown in FIG. 1 are devices operated by a recipient who has received a paper medium document.

図2は、実施例1に係るリモコンの外観例を説明するための図である。図2に示すように、リモコン20は、照射口22から可視光を照射するための可視光スイッチ21を有する。リモコン20は、可視光スイッチ21が受領者により押下された場合、照射口22から可視光を照射させる。また、リモコン20は、文書処理装置10にて表示される画像に関する処理を指示するための各種ボタンを有する。具体的には、リモコン20は、拡大ボタン23(図中に示す「拡大」)、縮小ボタン24(図中に示す「縮小」)および消去ボタン25(図中に示す「消去」)を有する。なお、拡大ボタン23、縮小ボタン24および消去ボタン25については、後に詳述する。   FIG. 2 is a diagram for explaining an example of the appearance of the remote control according to the first embodiment. As shown in FIG. 2, the remote controller 20 has a visible light switch 21 for irradiating visible light from the irradiation port 22. The remote controller 20 irradiates visible light from the irradiation port 22 when the visible light switch 21 is pressed by the recipient. The remote controller 20 also has various buttons for instructing processing related to an image displayed on the document processing apparatus 10. Specifically, the remote controller 20 has an enlarge button 23 (“enlarge” shown in the figure), a reduce button 24 (“reduce” shown in the figure), and an erase button 25 (“delete” shown in the figure). The enlargement button 23, the reduction button 24, and the delete button 25 will be described in detail later.

図3は、実施例1に係る文書処理装置の外観例を説明するための図である。図3に示すように、文書処理装置10は、スキャナー11と、表示部12と、信号受信部13と、スピーカ14と、入力部15とを有する。   FIG. 3 is a diagram for explaining an example of the appearance of the document processing apparatus according to the first embodiment. As illustrated in FIG. 3, the document processing apparatus 10 includes a scanner 11, a display unit 12, a signal receiving unit 13, a speaker 14, and an input unit 15.

スキャナー11は、受領者が配置した紙媒体の文書を撮影した撮影画像を生成するために用いられ、文書を読込んで、読込んだ文書をデジタルデータに変換する。   The scanner 11 is used to generate a photographed image obtained by photographing a paper document arranged by a recipient, reads the document, and converts the read document into digital data.

表示部12は、光センサが内蔵された光センサ内臓ディスプレイである。具体的には、表示部12は、ディスプレイ機能により、スキャナー11が変換したデジタルデータから生成された撮影画像を表示する。また、表示部12は、内蔵された光センサにより、リモコン20から照射された可視光を検知する。   The display unit 12 is an optical sensor built-in display in which an optical sensor is incorporated. Specifically, the display unit 12 displays a captured image generated from the digital data converted by the scanner 11 using a display function. Moreover, the display part 12 detects the visible light irradiated from the remote control 20 with the built-in optical sensor.

信号受信部13は、拡大ボタン23、縮小ボタン24および消去ボタン25から送信された各種画像処理指示を受信する。   The signal receiving unit 13 receives various image processing instructions transmitted from the enlarge button 23, the reduce button 24, and the delete button 25.

スピーカ14は、音声出力に用いられ、例えば、図3に示すように、文書処理装置10の前面において2箇所設置される。   The speakers 14 are used for sound output, and are installed at two places on the front surface of the document processing apparatus 10 as shown in FIG. 3, for example.

入力部15は、受領者が文書処理装置10の電源ON/OFFや、スキャナー11によるスキャン開始、文書処理装置10による処理終了などを行なうための各種ボタン群を有する。   The input unit 15 includes various buttons for a recipient to turn on / off the document processing apparatus 10, start scanning with the scanner 11, and end processing with the document processing apparatus 10.

ここで、文書の受領者は、例えば、老齢であるために文書を見たり読んだりすることが困難であっても、かかる外観を有する文書処理装置10およびリモコン20を用いることで、見えにくい、または、読みにくい文書の内容を容易に把握することが可能となる。以下、文書処理装置10が有する機能について図4などを用いて詳細に説明する。   Here, even if it is difficult for the recipient of the document to view or read the document because of old age, for example, it is difficult to see the document by using the document processing apparatus 10 and the remote controller 20 having such an appearance. Alternatively, it is possible to easily grasp the contents of a document that is difficult to read. Hereinafter, functions of the document processing apparatus 10 will be described in detail with reference to FIG.

図4は、実施例1に係る文書処理装置の構成を説明するための図である。図4に示すように、実施例1に係る文書処理装置10は、上述したスキャナー11、表示部12、信号受信部13、スピーカ14および入力部15とともに、記憶部16と制御部17とを有する。   FIG. 4 is a diagram for explaining the configuration of the document processing apparatus according to the first embodiment. As illustrated in FIG. 4, the document processing apparatus 10 according to the first embodiment includes a storage unit 16 and a control unit 17 together with the scanner 11, the display unit 12, the signal reception unit 13, the speaker 14, and the input unit 15 described above. .

記憶部16は、制御部17による各種処理結果を記憶し、図4に示すように、特に本実施例に関連するものとして、画像記憶部16aおよび分割結果記憶部16bを有する。   The storage unit 16 stores various processing results obtained by the control unit 17, and includes an image storage unit 16a and a division result storage unit 16b as particularly related to the present embodiment, as shown in FIG.

画像記憶部16aは、後述する撮影画像生成部17aおよび後述する拡大画像生成部17eによる処理結果を記憶し、分割結果記憶部16bは、後述する分割部17bによる処理結果を記憶するが、これらについては、後に詳述する。   The image storage unit 16a stores processing results from a captured image generation unit 17a and a magnified image generation unit 17e to be described later, and a division result storage unit 16b stores processing results from a division unit 17b to be described later. Will be described in detail later.

制御部17は、スキャナー11、表示部12、信号受信部13から転送された各種情報に基づいて各種処理を実行し、特に本実施例に関連するものとして、撮影画像生成部17aと、分割部17bと、表示制御部17cと、特定部17dと、拡大画像生成部17eと、指示判定部17fとを有する。   The control unit 17 executes various processes based on various information transferred from the scanner 11, the display unit 12, and the signal reception unit 13, and particularly as related to the present embodiment, the captured image generation unit 17 a and the division unit 17b, a display control unit 17c, a specifying unit 17d, an enlarged image generation unit 17e, and an instruction determination unit 17f.

撮影画像生成部17aは、スキャナー11から転送されたデジタルデータから文書を撮影した画像(撮影画像)を生成し、生成した撮影画像を画像記憶部16aに格納する。   The captured image generation unit 17a generates an image (captured image) obtained by capturing a document from the digital data transferred from the scanner 11, and stores the generated captured image in the image storage unit 16a.

分割部17bは、撮影画像生成部17aにより生成された撮影画像を画像記憶部16aから読み出し、読み出した撮影画像を複数の領域に分割する。ここで、葉書などの文書は、一般的に、写真や、本文、発送者の情報(住所、氏名、電話番号など)などのように、内容に応じて複数の領域に分けることができる。また、文書は、文書の背景色により占められる領域と、当該背景色と異なる色調により占められる領域とに分割することができる。すなわち、文書の背景色により囲まれる領域を特定することで、文書は、当該文書に記載されている内容に応じて、複数の領域に分割することができる。   The dividing unit 17b reads the captured image generated by the captured image generating unit 17a from the image storage unit 16a, and divides the read captured image into a plurality of regions. Here, a document such as a postcard can generally be divided into a plurality of areas according to the contents, such as a photograph, a text, and sender information (address, name, telephone number, etc.). The document can be divided into an area occupied by the background color of the document and an area occupied by a color tone different from the background color. That is, by specifying an area surrounded by the background color of the document, the document can be divided into a plurality of areas according to the contents described in the document.

そこで、分割部17bは、撮影画像の背景色を特定し、特定した背景色により囲まれる領域を特定することで、撮影画像に描出されている内容に応じて当該撮影画像を複数の領域に分割する。図5は、分割部を説明するための図である。   Therefore, the dividing unit 17b identifies the background color of the photographed image and identifies the region surrounded by the identified background color, thereby dividing the photographed image into a plurality of regions according to the contents depicted in the photographed image. To do. FIG. 5 is a diagram for explaining the dividing unit.

例えば、撮影画像の生成元である文書が、図5の(A)に示すように、「写真」の領域と、「本文1」の領域と、「本文2」の領域と、「発送者情報」の領域との4つの領域により構成されているとする。   For example, as shown in FIG. 5A, the document from which the photographed image is generated includes a “photograph” area, a “text 1” area, a “text 2” area, and “sender information”. ”And four regions.

かかる場合、分割部17bは、撮影画像の背景色を特定し、特定した背景色により囲まれる領域を特定することで、図5の(B)に示すように、「写真」の領域に対応する「領域A」と、「本文1」の領域に対応する「領域B」と、「本文2」の領域に対応する「領域C」と、「発送者情報」の領域に対応する「領域D」とに撮影画像を分割する。   In such a case, the dividing unit 17b identifies the background color of the captured image, and identifies the region surrounded by the identified background color, thereby corresponding to the “photo” region, as shown in FIG. “Area A”, “Area B” corresponding to the “Body 1” area, “Area C” corresponding to the “Body 2” area, and “Area D” corresponding to the “Sender information” area And divide the captured image.

そして、分割部17bは、図5の(B)に示すように、撮影画像における領域Aの位置情報を「位置情報A」として分割結果記憶部16bに格納する。同様に、分割部17bは、図5の(B)に示すように、撮影画像における領域Bの位置情報である「位置情報B」と、撮影画像における領域Cの位置情報である「位置情報C」と、撮影画像における領域Dの位置情報である「位置情報D」とをそれぞれ分割結果記憶部16bに格納する。   Then, as illustrated in FIG. 5B, the dividing unit 17b stores the position information of the area A in the captured image as “position information A” in the division result storage unit 16b. Similarly, as illustrated in FIG. 5B, the dividing unit 17 b performs “position information B” that is position information of the region B in the captured image and “position information C” that is position information of the region C in the captured image. And “position information D”, which is position information of the region D in the captured image, are stored in the division result storage unit 16b.

なお、分割部17bによる分割処理の粒度は、受領者の設定により任意に変更可能である。例えば、入力部15が有する分割設定ボタンにより分割粒度が粗く設定された場合、分割部17bは、図5の(C)に示すように、「写真」の領域に対応する「領域A」と、「本文1」と「本文2」と「発送者情報」との領域に対応する「領域B」とに撮影画像を分割する。   Note that the granularity of the dividing process by the dividing unit 17b can be arbitrarily changed according to the setting of the recipient. For example, when the division granularity is set coarsely by the division setting button of the input unit 15, the division unit 17b, as shown in (C) of FIG. 5, "area A" corresponding to the "photograph" area, The captured image is divided into “area B” corresponding to the areas of “text 1”, “text 2”, and “sender information”.

図4に戻って、表示制御部17cは、撮影画像生成部17aにより生成された撮影画像を画像記憶部16aから読み出し、読み出した撮影画像を表示部12に表示させるように制御する。図6は、表示制御部により表示される撮影画像の一例を説明するための図である。例えば、表示制御部17cは、図6に示すように、図5の(A)を用いて説明した文書から生成された撮影画像を、表示部12の中心に表示させる。   Returning to FIG. 4, the display control unit 17 c performs control so that the captured image generated by the captured image generation unit 17 a is read from the image storage unit 16 a and the read captured image is displayed on the display unit 12. FIG. 6 is a diagram for explaining an example of a captured image displayed by the display control unit. For example, as shown in FIG. 6, the display control unit 17 c displays a captured image generated from the document described with reference to FIG. 5A at the center of the display unit 12.

かかる表示制御部17cの制御により撮影画像が表示された状態で、受領者は、撮影画像にて自身が拡大表示したい領域に向けてリモコン20から可視光を照射する。そして、表示部12の光センサは、リモコンから照射された可視光を検知し、検知した可視光の表示部12における位置を特定する。図7は、受領者から照射される可視光の一例を説明するための図である。   In a state where the photographed image is displayed by the control of the display control unit 17c, the recipient irradiates the visible light from the remote controller 20 toward an area that the photographer wants to enlarge and display. And the optical sensor of the display part 12 detects the visible light irradiated from the remote control, and pinpoints the position in the display part 12 of the detected visible light. FIG. 7 is a diagram for explaining an example of visible light emitted from the recipient.

例えば、図7に示すように、受領者は、表示部12に表示された撮影画像の中で本文1に向けてリモコン20から可視光を照射させる。そして、表示部12の光センサは、リモコン20から照射された可視光を検知し、検知した可視光の表示部12における位置を特定する。   For example, as shown in FIG. 7, the recipient causes the remote controller 20 to irradiate visible light toward the text 1 in the captured image displayed on the display unit 12. And the optical sensor of the display part 12 detects the visible light irradiated from the remote control 20, and pinpoints the position in the display part 12 of the detected visible light.

図4に戻って、特定部17dは、表示部12の光センサが特定した可視光の表示部12における位置を取得し、当該取得した位置に対応する領域を分割部17bにより分割された複数の領域から特定する。具体的には、特定部17dは、光センサが特定した表示部12における可視光の位置と、撮影画像の表示部12における表示位置とから、可視光が照射された位置が撮影画像においてどの位置に対応するかを特定する。そして、特定部17dは、分割結果記憶部16bに格納された各領域の位置情報を参照して、可視光が照射された位置に対応する領域を特定する。図8は、特定部を説明するための図である。例えば、特定部17dは、図8に示すように、表示部12の光センサが特定した可視光の表示部12における位置が「位置情報B」内に対応する位置にあると判定して、可視光の照射位置が分割部17bにより撮影画像から分割された「領域B」に対応すると特定する。   Returning to FIG. 4, the specifying unit 17 d acquires the position of the visible light in the display unit 12 specified by the optical sensor of the display unit 12, and a plurality of regions obtained by dividing the region corresponding to the acquired position by the dividing unit 17 b. Specify from the area. Specifically, the specifying unit 17d determines which position in the captured image the position irradiated with visible light is based on the position of visible light on the display unit 12 specified by the optical sensor and the display position on the display unit 12 of the captured image. Specify whether it corresponds to. And the specific | specification part 17d specifies the area | region corresponding to the position where visible light was irradiated with reference to the positional information on each area | region stored in the division | segmentation result memory | storage part 16b. FIG. 8 is a diagram for explaining the specifying unit. For example, as illustrated in FIG. 8, the specifying unit 17 d determines that the position of the visible light on the display unit 12 specified by the optical sensor of the display unit 12 is in a position corresponding to “position information B”, and is visible. It is specified that the light irradiation position corresponds to “region B” divided from the captured image by the dividing unit 17b.

図4に戻って、拡大画像生成部17eは、特定部17dにより特定された領域を拡大した拡大画像を生成し、生成した拡大画像を画像記憶部16aに格納する。そして、表示制御部17cは、拡大画像生成部17eにより生成された拡大画像を画像記憶部16aから読み出し、読み出した拡大画像を表示部12に表示するように制御する。図9は、表示制御部により表示される拡大画像の一例を説明するための図である。   Returning to FIG. 4, the enlarged image generating unit 17e generates an enlarged image obtained by enlarging the area specified by the specifying unit 17d, and stores the generated enlarged image in the image storage unit 16a. Then, the display control unit 17c controls to read the enlarged image generated by the enlarged image generation unit 17e from the image storage unit 16a and display the read enlarged image on the display unit 12. FIG. 9 is a diagram for explaining an example of an enlarged image displayed by the display control unit.

例えば、拡大画像生成部17eは、特定部17dが特定した領域Bを拡大した拡大画像を生成し、表示制御部17cは、図9に示すように、領域Bの拡大画像を表示部12に表示させる。これにより、表示部12は、図9に示すように、文書の本文1を拡大表示する。   For example, the enlarged image generating unit 17e generates an enlarged image obtained by enlarging the region B specified by the specifying unit 17d, and the display control unit 17c displays the enlarged image of the region B on the display unit 12 as illustrated in FIG. Let As a result, the display unit 12 enlarges and displays the text 1 of the document as shown in FIG.

ここで、表示制御部17cは、撮影画像が表示部12にて表示された状態で、当該撮影画像の前面に拡大画像を表示する。例えば、表示制御部17cは、図9に示すように、本文1の拡大画像が文書全体を撮影した撮影画像の前面に表示されるように制御する。   Here, the display control unit 17c displays an enlarged image in front of the captured image in a state where the captured image is displayed on the display unit 12. For example, as shown in FIG. 9, the display control unit 17c performs control so that the enlarged image of the text 1 is displayed in front of the captured image obtained by capturing the entire document.

かかる表示制御部17cの制御により撮影画像の前面に拡大画像が表示された状態で、受領者は、リモコン20が有する各種ボタンを操作することで、拡大画像に対する画像処理指示を送信することができる。   In a state where the enlarged image is displayed in front of the photographed image under the control of the display control unit 17c, the recipient can transmit an image processing instruction for the enlarged image by operating various buttons of the remote controller 20. .

例えば、受領者は、拡大画像をさらに拡大したい場合、拡大ボタン23を押下する。また、受領者は、拡大画像を縮小したい場合、縮小ボタン24を押下する。また、受領者は、拡大画像を消去して撮影画像を再度参照したい場合や、拡大画像を消去して撮影画像における他の領域を拡大参照したい場合、消去ボタン25を押下する。   For example, the recipient presses the enlarge button 23 to further enlarge the enlarged image. Further, the recipient presses the reduction button 24 when he wants to reduce the enlarged image. The recipient presses the delete button 25 when the user wants to delete the enlarged image and refer to the captured image again, or when he wants to delete the enlarged image and refer to another area in the captured image.

なお、受領者が拡大ボタン23を押下することで、リモコン20は、表示されている拡大画像を所定の倍率で拡大する指示を送信する。例えば、受領者は、表示される拡大画像が所望の大きさまで拡大されるまで、拡大ボタン23を連続して押下する。また、受領者が縮小ボタン24を押下することで、リモコン20は、表示されている拡大画像を所定の倍率で縮小する指示を送信する。例えば、受領者は、表示される拡大画像が所望の大きさまで縮小されるまで、縮小ボタン24を連続して押下する。   When the recipient presses the enlarge button 23, the remote controller 20 transmits an instruction to enlarge the displayed enlarged image at a predetermined magnification. For example, the recipient continuously presses the enlarge button 23 until the displayed enlarged image is enlarged to a desired size. Further, when the recipient presses the reduction button 24, the remote controller 20 transmits an instruction to reduce the displayed enlarged image at a predetermined magnification. For example, the recipient continuously presses the reduction button 24 until the displayed enlarged image is reduced to a desired size.

かかる操作によりリモコン20から送信された画像処理指示の信号は、図3および4に示す信号受信部13により受信され、信号受信部13は、受信した画像処理指示の信号を、図4に示す指示判定部17fに転送する。   The image processing instruction signal transmitted from the remote controller 20 by such an operation is received by the signal receiving unit 13 shown in FIGS. 3 and 4, and the signal receiving unit 13 converts the received image processing instruction signal into the instruction shown in FIG. The data is transferred to the determination unit 17f.

指示判定部17fは、信号受信部13から転送された画像処理指示の信号に含まれる指示内容を判定し、判定結果を拡大画像生成部17eおよび表示制御部17cに転送する。図10は、画像処理指示による拡大画像生成部および表示制御部の処理を説明するための図である。   The instruction determination unit 17f determines the instruction content included in the image processing instruction signal transferred from the signal reception unit 13, and transfers the determination result to the enlarged image generation unit 17e and the display control unit 17c. FIG. 10 is a diagram for explaining processing of the enlarged image generation unit and the display control unit in response to an image processing instruction.

例えば、判定結果が拡大画像の拡大処理であった場合、指示判定部17fは、拡大率を拡大画像生成部17eに転送し、拡大画像生成部17eは、転送された拡大率に基づいて拡大画像をさらに拡大した拡大画像を生成し、生成した拡大画像を新規に画像記憶部16aに格納する。そして、表示制御部17cは、画像記憶部16aに新規に格納された拡大画像を読み出して表示部12に表示させる。例えば、表示制御部17cは、図10の(A)に示すように、本文1がさらに拡大された拡大画像を表示部12に表示させる。   For example, when the determination result is the enlargement process of the enlarged image, the instruction determination unit 17f transfers the enlargement rate to the enlarged image generation unit 17e, and the enlarged image generation unit 17e enlarges the enlarged image based on the transferred enlargement rate. Is further enlarged, and the generated enlarged image is newly stored in the image storage unit 16a. Then, the display control unit 17c reads out an enlarged image newly stored in the image storage unit 16a and causes the display unit 12 to display the enlarged image. For example, the display control unit 17c causes the display unit 12 to display an enlarged image in which the text 1 is further enlarged as illustrated in FIG.

また、判定結果が拡大画像の縮小処理であった場合、指示判定部17fは、縮小率を拡大画像生成部17eに転送し、拡大画像生成部17eは、転送された縮小率に基づいて拡大画像を縮小した縮小画像を生成し、生成した縮小画像を新規に画像記憶部16aに格納する。そして、表示制御部17cは、画像記憶部16aに新規に格納された縮小画像を読み出して表示部12に表示させる。例えば、表示制御部17cは、図10の(B)に示すように、本文1が縮小された縮小画像を表示部12に表示させる。   When the determination result is the enlargement image reduction process, the instruction determination unit 17f transfers the reduction rate to the enlargement image generation unit 17e, and the enlargement image generation unit 17e performs the enlargement image based on the transferred reduction rate. Is generated, and the generated reduced image is newly stored in the image storage unit 16a. Then, the display control unit 17c reads the reduced image newly stored in the image storage unit 16a and causes the display unit 12 to display the reduced image. For example, the display control unit 17c causes the display unit 12 to display a reduced image obtained by reducing the text 1 as illustrated in FIG.

また、判定結果が拡大画像の消去処理であった場合、指示判定部17fは、拡大画像の非表示指示を表示制御部17cに転送し、表示制御部17cは、表示されている拡大画像を非表示とする。そして、受領者は、リモコン20を操作することで、例えば、撮影画像の写真などを拡大表示させる。   If the determination result is an enlarged image erasing process, the instruction determination unit 17f transfers an instruction to hide the enlarged image to the display control unit 17c, and the display control unit 17c removes the displayed enlarged image. Display. Then, the recipient operates the remote controller 20 to enlarge the photographed image, for example.

上述した文書処理は、入力部15が有する処理終了ボタンが受領者により押下されることで終了する。なお、本実施例は、例えば、表示される拡大画像に対して受領者がリモコン20から可視光を照射した状態で可視光スイッチ21を押下しながら可視光の照射位置を移動した場合、表示制御部17cが拡大画像の表示位置を移動するように制御することも可能である。   The document processing described above ends when the processing end button of the input unit 15 is pressed by the recipient. In the present embodiment, for example, when the recipient moves the visible light irradiation position while pressing the visible light switch 21 while the visible light is irradiated from the remote controller 20 on the displayed enlarged image, the display control is performed. It is also possible to control the unit 17c to move the display position of the enlarged image.

続いて、図11を用いて実施例1に係る文書処理装置10の処理の手順について説明する。図11は、実施例1に係る文書処理装置の処理を説明するためのフローチャートである。なお、図11では、受領者が紙媒体の文書をスキャナー11に配置した以降の処理について説明する。   Subsequently, a processing procedure of the document processing apparatus 10 according to the first embodiment will be described with reference to FIG. FIG. 11 is a flowchart for explaining processing of the document processing apparatus according to the first embodiment. In FIG. 11, processing after the recipient places a paper document on the scanner 11 will be described.

図11に示すように、本実施例1における文書処理装置10は、受領者から入力部15を介してスキャン開始要求を受け付けたか否かを判定する(ステップS101)。スキャン開始要求を受け付けない場合(ステップS101否定)、文書処理装置10は、待機状態となる。一方、スキャン開始要求を受け付けた場合(ステップS101肯定)、スキャナー11は、文書の読み込み処理を行なって、当該文書をデジタルデータに変換し、撮影画像生成部17aは、スキャナー11から転送されたデジタルデータから撮影画像を生成する(ステップS102)。   As shown in FIG. 11, the document processing apparatus 10 according to the first embodiment determines whether a scan start request is received from the recipient via the input unit 15 (step S101). When the scan start request is not accepted (No at Step S101), the document processing apparatus 10 enters a standby state. On the other hand, when a scan start request is accepted (Yes at step S101), the scanner 11 performs a document reading process to convert the document into digital data, and the captured image generation unit 17a receives the digital data transferred from the scanner 11. A captured image is generated from the data (step S102).

そして、分割部17bは、撮影画像生成部17aにより生成された撮影画像を複数の領域に分割する(ステップS103)。具体的には、分割部17bは、撮影画像の背景色を特定し、特定した背景色により囲まれる領域を特定することで、撮影画像に描出されている内容に応じて当該撮影画像を複数の領域に分割する。   Then, the dividing unit 17b divides the captured image generated by the captured image generating unit 17a into a plurality of regions (step S103). Specifically, the dividing unit 17b specifies the background color of the photographed image, identifies the region surrounded by the identified background color, and thereby converts the photographed image into a plurality of images according to the contents depicted in the photographed image. Divide into areas.

その後、表示制御部17cは、撮影画像生成部17aにより生成された撮影画像を表示部12に表示させるように制御し(ステップS104)、表示部12の光センサは、リモコン20から照射された可視光を検知したか否かを判定する(ステップS105)。   Thereafter, the display control unit 17c controls the display unit 12 to display the captured image generated by the captured image generation unit 17a (step S104), and the optical sensor of the display unit 12 is visible from the remote controller 20. It is determined whether or not light has been detected (step S105).

ここで、可視光を検知した場合(ステップS105肯定)、表示部12の光センサは、検知した可視光の表示部12における位置を特定する。そして、特定部17dは、表示部12の光センサが特定した可視光の表示部12における位置を取得し、当該取得した位置に対応する領域を分割部17bにより分割された複数の領域から特定する(ステップS106)。   Here, when visible light is detected (Yes at Step S105), the optical sensor of the display unit 12 specifies the position of the detected visible light on the display unit 12. And the specific | specification part 17d acquires the position in the display part 12 of the visible light which the optical sensor of the display part 12 specified, and specifies the area | region corresponding to the said acquired position from the several area | region divided | segmented by the division part 17b. (Step S106).

続いて、拡大画像生成部17eは、特定部17dにより特定された領域を拡大した拡大画像を生成し(ステップS107)、表示制御部17cは、拡大画像生成部17eにより生成された拡大画像を表示部12に表示するように制御する(ステップS108)。具体的には、表示制御部17cは、撮影画像の前面に拡大画像を表示させる。   Subsequently, the enlarged image generation unit 17e generates an enlarged image obtained by enlarging the area specified by the specifying unit 17d (step S107), and the display control unit 17c displays the enlarged image generated by the enlarged image generation unit 17e. It controls to display on the part 12 (step S108). Specifically, the display control unit 17c displays an enlarged image on the front surface of the captured image.

ステップS108の処理の後、または、表示部12の光センサが可視光を検知しなかった場合(ステップS105否定)、信号受信部13は、リモコン20から画像処理指示を受信したか否かを判定する(ステップS109)。ここで、リモコン20から画像処理指示を受信した場合(ステップS109肯定)、信号受信部13は、受信した画像処理指示を指示判定部17fに転送し、指示判定部17fは、信号受信部13から転送された画像処理指示の内容を判定する(ステップS110)。すなわち、指示判定部17fは、画像処理指示の内容が、拡大画像の拡大処理であるか、拡大画像の縮小処理であるか、拡大画像の消去処理であるかを判定する。   After the process of step S108, or when the optical sensor of the display unit 12 does not detect visible light (No in step S105), the signal receiving unit 13 determines whether an image processing instruction is received from the remote controller 20 or not. (Step S109). Here, when an image processing instruction is received from the remote controller 20 (Yes in step S109), the signal receiving unit 13 transfers the received image processing instruction to the instruction determining unit 17f, and the instruction determining unit 17f is transmitted from the signal receiving unit 13. The contents of the transferred image processing instruction are determined (step S110). That is, the instruction determination unit 17f determines whether the content of the image processing instruction is enlargement processing of an enlarged image, reduction processing of an enlarged image, or deletion processing of an enlarged image.

そして、指示判定部17fは、判定結果を拡大画像生成部17eおよび表示制御部17cに転送し、拡大画像生成部17eおよび表示制御部17cは、判定結果に沿った処理を実行する(ステップS111)。例えば、判定結果が拡大画像の拡大処理であった場合、指示判定部17fは、拡大率を拡大画像生成部17eに転送し、拡大画像生成部17eは、転送された拡大率に基づいて拡大画像をさらに拡大した拡大画像を生成し、表示制御部17cは、拡大画像を表示部12に表示させる。また、判定結果が拡大画像の縮小処理であった場合、指示判定部17fは、縮小率を拡大画像生成部17eに転送し、拡大画像生成部17eは、転送された縮小率に基づいて拡大画像を縮小した縮小画像を生成し、表示制御部17cは、縮小画像を表示部12に表示させる。また、判定結果が拡大画像の消去処理であった場合、指示判定部17fは、拡大画像の非表示指示を表示制御部17cに転送し、表示制御部17cは、表示されている拡大画像を非表示とする。   Then, the instruction determination unit 17f transfers the determination result to the enlarged image generation unit 17e and the display control unit 17c, and the enlarged image generation unit 17e and the display control unit 17c execute a process according to the determination result (step S111). . For example, when the determination result is the enlargement process of the enlarged image, the instruction determination unit 17f transfers the enlargement rate to the enlarged image generation unit 17e, and the enlarged image generation unit 17e enlarges the enlarged image based on the transferred enlargement rate. The display control unit 17c causes the display unit 12 to display the enlarged image. When the determination result is the enlargement image reduction process, the instruction determination unit 17f transfers the reduction rate to the enlargement image generation unit 17e, and the enlargement image generation unit 17e performs the enlargement image based on the transferred reduction rate. The reduced control image is generated, and the display control unit 17c causes the display unit 12 to display the reduced image. If the determination result is an enlarged image erasing process, the instruction determination unit 17f transfers an instruction to hide the enlarged image to the display control unit 17c, and the display control unit 17c removes the displayed enlarged image. Display.

ステップS111の処理の後、または、信号受信部13が画像処理指示を受信しなかった場合(ステップS109否定)、文書処理装置10は、処理終了要求を受け付けたか否かを判定する(ステップS112)。   After the process of step S111, or when the signal receiving unit 13 has not received an image processing instruction (No at step S109), the document processing apparatus 10 determines whether a processing end request has been received (step S112). .

ここで、処理終了要求を受け付けなかった場合(ステップS112否定)、ステップS105に戻って、表示部12の光センサは、リモコン20から照射された可視光を検知したか否かを判定する。   Here, when the process end request is not accepted (No at Step S112), the process returns to Step S105, and the optical sensor of the display unit 12 determines whether or not the visible light emitted from the remote controller 20 has been detected.

一方、処理終了要求を受け付けた場合(ステップS112肯定)、文書処理装置10は、処理を終了する。   On the other hand, when the process end request is received (Yes at step S112), the document processing apparatus 10 ends the process.

上述してきたように、実施例1では、スキャナー11は、受領者が配置した紙媒体の文書の読み込み処理を行なって、当該文書をデジタルデータに変換し、撮影画像生成部17aは、スキャナー11から転送されたデジタルデータから撮影画像を生成する。そして、分割部17bは、撮影画像生成部17aにより生成された撮影画像を複数の領域に分割し、表示制御部17cは、撮影画像生成部17aにより生成された撮影画像を表示部12に表示させるように制御する。そして、表示部12の光センサは、リモコン20から照射された可視光の表示部12における位置を特定し、特定部17dは、表示部12の光センサが特定した可視光の表示部12における位置を取得し、当該取得した位置に対応する領域を分割部17bにより分割された複数の領域から特定する。そして、拡大画像生成部17eは、特定部17dにより特定された領域を拡大した拡大画像を生成し、表示制御部17cは、拡大画像生成部17eにより生成された拡大画像を表示部12に表示するように制御する。   As described above, in the first embodiment, the scanner 11 reads a paper medium document placed by the recipient, converts the document into digital data, and the captured image generation unit 17a receives the data from the scanner 11. A captured image is generated from the transferred digital data. Then, the dividing unit 17b divides the photographed image generated by the photographed image generating unit 17a into a plurality of areas, and the display control unit 17c causes the display unit 12 to display the photographed image generated by the photographed image generating unit 17a. To control. And the optical sensor of the display part 12 specifies the position in the display part 12 of the visible light irradiated from the remote control 20, and the specific part 17d is the position in the display part 12 of the visible light which the optical sensor of the display part 12 specified. And the region corresponding to the acquired position is specified from the plurality of regions divided by the dividing unit 17b. The enlarged image generation unit 17e generates an enlarged image obtained by enlarging the area specified by the specifying unit 17d, and the display control unit 17c displays the enlarged image generated by the enlarged image generation unit 17e on the display unit 12. To control.

したがって、実施例1によれば、受領者は、リモコン20から可視光を照射するといった簡単な操作のみで、自身が見えにくい、または、読みにくい箇所を拡大した拡大画像を撮影画像とともに参照することができる。その結果、受領者は、撮影画像を参照しながら拡大画像を参照することができ、見えにくい、または、読みにくい文書の内容を容易に把握することが可能となる。   Therefore, according to the first embodiment, the recipient refers to the enlarged image together with the photographed image by enlarging a portion where it is difficult to see or read by only a simple operation of irradiating visible light from the remote controller 20. Can do. As a result, the recipient can refer to the enlarged image while referring to the photographed image, and can easily grasp the contents of the document which is difficult to see or read.

また、実施例1では、表示制御部17cは、撮影画像の前面に拡大画像を表示させるので、受領者は、所望の領域を拡大した拡大画像を確実に参照することができる。   Further, in the first embodiment, the display control unit 17c displays an enlarged image on the front surface of the captured image, so that the recipient can reliably refer to the enlarged image obtained by enlarging a desired area.

また、実施例1では、リモコン20は、表示部12にて表示される拡大画像に関する処理を指示するための画像処理指示を送信し、信号受信部13は、リモコン20から受信した画像処理指示を指示判定部17fに転送し、指示判定部17fは、信号受信部13から転送された画像処理指示の内容が、拡大画像の拡大処理であるか、拡大画像の縮小処理であるか、拡大画像の消去処理であるかを判定する。   In the first embodiment, the remote controller 20 transmits an image processing instruction for instructing processing related to the enlarged image displayed on the display unit 12, and the signal receiving unit 13 receives the image processing instruction received from the remote controller 20. The instruction determination unit 17f transfers to the instruction determination unit 17f, and the instruction determination unit 17f determines whether the content of the image processing instruction transferred from the signal reception unit 13 is an enlargement image enlargement process, an enlargement image reduction process, It is determined whether it is an erasing process.

そして、指示判定部17fは、判定結果を拡大画像生成部17eおよび表示制御部17cに転送し、拡大画像生成部17eおよび表示制御部17cは、判定結果に沿った処理を実行する。すなわち、判定結果が拡大画像の拡大処理であった場合、指示判定部17fは、拡大率を拡大画像生成部17eに転送し、拡大画像生成部17eは、転送された拡大率に基づいて拡大画像をさらに拡大した拡大画像を生成し、表示制御部17cは、拡大画像を表示部12に表示させる。また、判定結果が拡大画像の縮小処理であった場合、指示判定部17fは、縮小率を拡大画像生成部17eに転送し、拡大画像生成部17eは、転送された縮小率に基づいて拡大画像を縮小した縮小画像を生成し、表示制御部17cは、縮小画像を表示部12に表示させる。また、判定結果が拡大画像の消去処理であった場合、指示判定部17fは、拡大画像の非表示指示を表示制御部17cに転送し、表示制御部17cは、表示されている拡大画像を非表示とする。   Then, the instruction determination unit 17f transfers the determination result to the enlarged image generation unit 17e and the display control unit 17c, and the enlarged image generation unit 17e and the display control unit 17c execute a process according to the determination result. That is, when the determination result is the enlargement process of the enlarged image, the instruction determination unit 17f transfers the enlargement rate to the enlarged image generation unit 17e, and the enlarged image generation unit 17e performs the enlarged image based on the transferred enlargement rate. The display control unit 17c causes the display unit 12 to display the enlarged image. When the determination result is the enlargement image reduction process, the instruction determination unit 17f transfers the reduction rate to the enlargement image generation unit 17e, and the enlargement image generation unit 17e performs the enlargement image based on the transferred reduction rate. The reduced control image is generated, and the display control unit 17c causes the display unit 12 to display the reduced image. If the determination result is an enlarged image erasing process, the instruction determination unit 17f transfers an instruction to hide the enlarged image to the display control unit 17c, and the display control unit 17c removes the displayed enlarged image. Display.

したがって、実施例1によれば、受領者は、リモコン20のボタンを操作するといった簡単な操作のみで、自身が見えにくい、または、読みにくい箇所を自身が認識しやすい拡大率に変更することができ、また、別の箇所を拡大したい場合に現時点で表示されている拡大画像を消去することができる。その結果、受領者は、見えにくい、または、読みにくい文書の内容をさらに容易に把握することが可能となる。   Therefore, according to the first embodiment, the recipient can change a portion that is difficult to see or difficult to read to a magnification that is easily recognized by the recipient only by a simple operation such as operating a button of the remote controller 20. In addition, when it is desired to enlarge another portion, the enlarged image displayed at the present time can be deleted. As a result, the recipient can more easily grasp the contents of the document that is difficult to see or read.

上述した実施例1では、受領者が指定した領域の拡大画像が表示される場合について説明した。実施例2では、さらに受領者が指定した領域に含まれる文字列が音声にて出力される場合について、図12〜図16を用いて説明する。なお、図12は、実施例2に係るリモコンの外観例を説明するための図であり、図13は、実施例2に係る文書処理装置の構成を説明するための図であり、図14は、音声出力制御部による判定処理を説明するための図である。また、図15は、音声出力制御部による音声出力処理を説明するための図であり、図16は、音声出力制御部の音声出力処理にともなう表示制御部の表示処理を説明するための図である。   In the first embodiment described above, the case where the enlarged image of the area designated by the recipient is displayed has been described. In the second embodiment, a case where a character string included in an area designated by the recipient is output by voice will be described with reference to FIGS. FIG. 12 is a diagram for explaining an example of the appearance of the remote control according to the second embodiment, FIG. 13 is a diagram for explaining the configuration of the document processing apparatus according to the second embodiment, and FIG. It is a figure for demonstrating the determination process by an audio | voice output control part. FIG. 15 is a diagram for explaining the audio output process by the audio output control unit, and FIG. 16 is a diagram for explaining the display process of the display control unit accompanying the audio output process of the audio output control unit. is there.

実施例2に係る文書処理システムは、図1を用いて説明した文書処理システムと同様に、文書処理装置10とリモコン20とを含む。しかし、実施例2に係るリモコン20は、図2を用いて説明した実施例1に係るリモコン20と比較して、図12に示すように、音量を調整するために用いられる音量増大ボタン26(図中の「大」)および音量減少ボタン27(図中の「小」)と、再生速度を調整するために用いられる再生速度増大ボタン28(図中の「早」)および再生速度減少ボタン29(図中の「遅」)をさらに有する点が異なる。   The document processing system according to the second embodiment includes a document processing apparatus 10 and a remote controller 20 in the same manner as the document processing system described with reference to FIG. However, the remote controller 20 according to the second embodiment has a volume increase button 26 (see FIG. 12) used for adjusting the volume, as compared with the remote controller 20 according to the first embodiment described with reference to FIG. “Large” in the figure) and a volume decrease button 27 (“Small” in the figure), a reproduction speed increase button 28 (“Fast” in the figure) used for adjusting the reproduction speed, and a reproduction speed decrease button 29. The difference is that it further has ("slow" in the figure).

また、実施例2に係る文書処理装置10は、図3を用いて説明した実施例1に係る文書処理装置10と同様の外観を有する。しかし、実施例2に係る文書処理装置10は、図4を用いて説明した実施例1に係る文書処理装置10と比較して、図13に示すように、制御部17が文字列認識部17g、音声合成部17hおよび音声出力制御部17iをさらに有し、記憶部16が音声記憶部16cをさらに有する点が異なる。   Further, the document processing apparatus 10 according to the second embodiment has the same appearance as the document processing apparatus 10 according to the first embodiment described with reference to FIG. However, as compared with the document processing apparatus 10 according to the first embodiment described with reference to FIG. 4, the document processing apparatus 10 according to the second embodiment includes a character string recognition unit 17 g as illustrated in FIG. 13. The difference is that it further includes a voice synthesis unit 17h and a voice output control unit 17i, and the storage unit 16 further includes a voice storage unit 16c.

以下、これらを中心に、実施例2に係る文書処理装置10およびリモコン20について説明する。   Hereinafter, the document processing apparatus 10 and the remote controller 20 according to the second embodiment will be described focusing on these.

文字列認識部17gは、画像記憶部16aから撮影画像生成部17aが生成した撮影画像を読み出して、読み出した撮影画像に含まれる文字列を認識する。例えば、文字列認識部17gは、図5の(A)を用いて説明した文書から生成された撮影画像に含まれる文字列を認識する。これにより、文字列認識部17gは、例えば、「本文1」に記載されている文字列である「お元気ですか?・・・・・・・・・・・・を送ります。」を認識する。また、文字列認識部17gは、認識した文字列の撮影画像における位置情報を取得する。なお、文字列認識部17gは、写真に含まれる文字列を認識することも可能である。   The character string recognition unit 17g reads the captured image generated by the captured image generation unit 17a from the image storage unit 16a, and recognizes the character string included in the read captured image. For example, the character string recognition unit 17g recognizes a character string included in a captured image generated from the document described with reference to FIG. As a result, the character string recognition unit 17g recognizes, for example, “I'm sending you well ...” that is the character string described in “Body 1”. To do. In addition, the character string recognition unit 17g acquires position information in the captured image of the recognized character string. The character string recognition unit 17g can also recognize a character string included in the photograph.

図13に示す音声合成部17hは、文字列認識部17gにより認識された文字列の音声データを合成する。例えば、音声合成部17hは、「本文1」に記載されている「お元気ですか?・・・・・・・・・・・・を送ります。」の音声データを合成する。そして、音声合成部17hは、合成した音声データを、当該音声データを合成するために用いた文字列の撮影画像における位置情報に対応付けて音声記憶部16cに格納する。   The voice synthesizer 17h shown in FIG. 13 synthesizes the voice data of the character string recognized by the character string recognizer 17g. For example, the voice synthesizer 17h synthesizes the voice data “I'm fine? ...” described in “Body 1”. Then, the voice synthesizer 17h stores the synthesized voice data in the voice storage unit 16c in association with position information in the captured image of the character string used for synthesizing the voice data.

なお、分割部17bは、実施例1と同様に、撮影画像を複数の領域に分割する。例えば、分割部17bは、図5の(B)に示すように、「写真」の領域に対応する「領域A」と、「本文1」の領域に対応する「領域B」と、「本文2」の領域に対応する「領域C」と、「発送者情報」の領域に対応する「領域D」とに撮影画像を分割する。   Note that the dividing unit 17b divides the captured image into a plurality of regions, as in the first embodiment. For example, as illustrated in FIG. 5B, the dividing unit 17 b performs “area A” corresponding to the “photograph” area, “area B” corresponding to the “text 1” area, and “text 2”. The photographed image is divided into “region C” corresponding to the region “” and “region D” corresponding to the “sender information” region.

また、表示制御部17cは、実施例1と同様に、撮影画像を表示部12に表示させる。そして、特定部17dは、実施例1と同様に、表示部12の光センサが特定した可視光の表示部12における位置を取得し、当該取得した位置に対応する領域を分割部17bにより分割された複数の領域から特定する。   Further, the display control unit 17c displays the captured image on the display unit 12 as in the first embodiment. And the specific | specification part 17d acquires the position in the display part 12 of the visible light which the optical sensor of the display part 12 specified similarly to Example 1, and the area | region corresponding to the acquired position is divided | segmented by the division part 17b. Identify from multiple areas.

そして、拡大画像生成部17eは、実施例1と同様に、特定部17dにより特定された領域を拡大した拡大画像を生成する。さらに、表示制御部17cは、実施例1と同様に、拡大画像生成部17eにより生成された拡大画像を表示部12に表示するように制御する。   Then, similarly to the first embodiment, the enlarged image generation unit 17e generates an enlarged image obtained by enlarging the area specified by the specifying unit 17d. Further, the display control unit 17c controls the display unit 12 to display the enlarged image generated by the enlarged image generation unit 17e, as in the first embodiment.

ここで、実施例2において、音声出力制御部17iは、特定部17dにより特定された領域にて文字列が含まれるか否かを判定する。具体的には、音声出力制御部17iは、音声記憶部16cを参照して、特定部17dにより特定された領域内の位置情報に対応付けられている音声データがあるか否かを判定する。   Here, in Example 2, the audio output control unit 17i determines whether or not a character string is included in the area specified by the specifying unit 17d. Specifically, the audio output control unit 17i refers to the audio storage unit 16c and determines whether there is audio data associated with the position information in the area specified by the specifying unit 17d.

例えば、音声出力制御部17iは、図14に示すように、特定部17dにより特定された領域B内の位置情報に対応付けられている音声データ「お元気ですか?・・・・・・・・・・・・を送ります。」が音声記憶部16cに記憶されていることから、領域Bに文字列が含まれていると判定する。   For example, as shown in FIG. 14, the audio output control unit 17 i performs the audio data “How are you?” Associated with the position information in the area B specified by the specifying unit 17 d. .. Is stored in the voice storage unit 16c, it is determined that the character string is included in the area B.

そして、音声出力制御部17iは、特定部17dにより特定された領域にて文字列が含まれる場合、当該文字列から音声合成部17hにより合成された音声データを音声記憶部16cから読み出してスピーカ14から出力するように制御する。   When the character string is included in the area specified by the specifying unit 17d, the voice output control unit 17i reads out the voice data synthesized from the character string by the voice synthesizing unit 17h from the voice storage unit 16c and reads the speaker 14 Control to output from.

例えば、音声出力制御部17iは、図15に示すように、表示部12に本文1の拡大画像が表示されている状態で、スピーカ14から「音声データ:お元気ですか?・・・・・・・・・・・・を送ります。」を出力させる。   For example, as shown in FIG. 15, the audio output control unit 17i displays “sound data: how are you?” From the speaker 14 while the enlarged image of the text 1 is displayed on the display unit 12. "... will be sent."

なお、本実施例は、音声出力制御部17iの制御により音声データが出力されていることに同期して、表示制御部17cにより以下に説明するような表示処理が行なわれる場合であってもよい。例えば、表示制御部17cは、図16の(A)に示すように、音声出力用ソフトウェアの動作画面を表示させる。これにより、受領者は、自身が拡大表示させた領域に含まれる文字列の音声データが再生されていることを認識することができる。あるいは、表示制御部17cは、図16の(B)に示すように、現に再生されている音声データに該当する文字列の箇所を、拡大画像において表示させてもよい。例えば、図16の(B)に示す一例では、本文1の「お元気ですか」が現在再生されていることが示されている。これにより、受領者は、自身が拡大表示させた領域に含まれる文字列のうち、どの部分が再生されているのかを認識することができる。   The present embodiment may be a case where display processing as described below is performed by the display control unit 17c in synchronization with the output of audio data under the control of the audio output control unit 17i. . For example, as shown in FIG. 16A, the display control unit 17c displays an operation screen of the audio output software. Thereby, the recipient can recognize that the voice data of the character string included in the area enlarged and displayed by himself / herself is reproduced. Or the display control part 17c may display the location of the character string applicable to the audio | voice data currently reproduced | regenerated in an enlarged image, as shown to (B) of FIG. For example, the example shown in FIG. 16B shows that “How are you?” In the main text 1 is currently being played back. Thereby, the recipient can recognize which part of the character string included in the area enlarged and displayed by himself / herself is being reproduced.

かかる音声出力制御部17iの制御により音声データが出力された場合、受領者は、リモコン20が有する音量増大ボタン26、音量減少ボタン27、再生速度増大ボタン28および再生速度減少ボタン29を操作することで、スピーカ14から出力される音声データに関する処理を指示するための音声処理指示を送信することができる。   When audio data is output under the control of the audio output control unit 17i, the receiver operates the volume increase button 26, volume decrease button 27, reproduction speed increase button 28, and reproduction speed decrease button 29 of the remote controller 20. Thus, it is possible to transmit an audio processing instruction for instructing a process related to audio data output from the speaker 14.

例えば、受領者は、スピーカ14から出力される音声データの音量を調整したい場合、音量増大ボタン26または音量減少ボタン27を押下する。また、受領者は、スピーカ14から出力される音声データの再生速度を調整したい場合、再生速度増大ボタン28または再生速度減少ボタン29を押下する。   For example, the recipient presses the volume increase button 26 or the volume decrease button 27 to adjust the volume of the audio data output from the speaker 14. The recipient presses the playback speed increase button 28 or the playback speed decrease button 29 to adjust the playback speed of the audio data output from the speaker 14.

かかる操作によりリモコン20から送信された音声処理指示の信号は、信号受信部13により受信され、信号受信部13は、受信した音声処理指示の信号を指示判定部17fに転送する。そして、指示判定部17fは、信号受信部13から転送された音声処理指示の信号に含まれる指示内容を判定し、判定結果を音声出力制御部17iに転送する。そして、音声出力制御部17iは、指示判定部17fの判定結果に基づいて、音声データの音量や音声データの再生速度を制御する。   The audio processing instruction signal transmitted from the remote controller 20 by such an operation is received by the signal receiving unit 13, and the signal receiving unit 13 transfers the received audio processing instruction signal to the instruction determining unit 17f. Then, the instruction determination unit 17f determines the instruction content included in the audio processing instruction signal transferred from the signal reception unit 13, and transfers the determination result to the audio output control unit 17i. Then, the audio output control unit 17i controls the volume of the audio data and the reproduction speed of the audio data based on the determination result of the instruction determination unit 17f.

例えば、判定結果が音量増大であった場合、音声出力制御部17iは、スピーカ14からの出力音量を増大させ、判定結果が音量減少であった場合、音声出力制御部17iは、スピーカ14からの出力音量を減少させる。また、判定結果が再生速度増大であった場合、音声出力制御部17iは、スピーカ14からの再生速度を増大させ、判定結果が再生速度減少であった場合、音声出力制御部17iは、スピーカ14からの再生速度を減少させる。   For example, when the determination result is an increase in volume, the audio output control unit 17i increases the output volume from the speaker 14, and when the determination result is a decrease in volume, the audio output control unit 17i is output from the speaker 14. Decrease the output volume. When the determination result is an increase in the reproduction speed, the audio output control unit 17i increases the reproduction speed from the speaker 14, and when the determination result is a decrease in the reproduction speed, the audio output control unit 17i Reduce playback speed from.

なお、図16の(A)に示すような音声出力用ソフトウェアの動作画面が表示部12にて表示されている場合、表示部12の光センサ機能をタッチパネル機能として用いることで、受領者は、音声出力用ソフトウェアの動作画面における「再生」、「停止」「早送り」および「巻き戻し」ボタンを押下することで、所望の音声出力指示を行なうことも可能である。   In addition, when the operation screen of the audio output software as shown in FIG. 16A is displayed on the display unit 12, by using the optical sensor function of the display unit 12 as a touch panel function, the recipient can It is also possible to give a desired voice output instruction by pressing the “play”, “stop”, “fast forward” and “rewind” buttons on the operation screen of the voice output software.

また、実施例1にて説明した画像処理指示による処理は、実施例2においても実行可能である。また、上述した文書処理は、実施例1と同様に、入力部15が有する処理終了ボタンが受領者により押下されることで終了する。   Also, the processing according to the image processing instruction described in the first embodiment can be executed in the second embodiment. Further, the document processing described above ends when the recipient presses the processing end button of the input unit 15 as in the first embodiment.

続いて、図17を用いて実施例2に係る文書処理装置10の処理の手順について説明する。図17は、実施例2に係る文書処理装置の処理を説明するためのフローチャートである。なお、図17では、受領者が紙媒体の文書をスキャナー11に配置した以降の処理について説明する。   Subsequently, a processing procedure of the document processing apparatus 10 according to the second embodiment will be described with reference to FIG. FIG. 17 is a flowchart for explaining processing of the document processing apparatus according to the second embodiment. In FIG. 17, processing after the recipient places a paper document on the scanner 11 will be described.

図17に示すように、本実施例2における文書処理装置10は、受領者から入力部15を介してスキャン開始要求を受け付けたか否かを判定する(ステップS201)。スキャン開始要求を受け付けない場合(ステップS201否定)、文書処理装置10は、待機状態となる。一方、スキャン開始要求を受け付けた場合(ステップS201肯定)、スキャナー11は、文書の読み込み処理を行なって、当該文書をデジタルデータに変換し、撮影画像生成部17aは、スキャナー11から転送されたデジタルデータから撮影画像を生成する(ステップS202)。   As shown in FIG. 17, the document processing apparatus 10 according to the second embodiment determines whether a scan start request is received from the recipient via the input unit 15 (step S201). When the scan start request is not accepted (No at Step S201), the document processing apparatus 10 enters a standby state. On the other hand, when a scan start request is received (Yes at step S201), the scanner 11 performs a document reading process to convert the document into digital data, and the captured image generation unit 17a receives the digital data transferred from the scanner 11. A captured image is generated from the data (step S202).

そして、分割部17bは、撮影画像生成部17aにより生成された撮影画像を複数の領域に分割し(ステップS203)、文字列認識部17gは、撮影画像に含まれる文字列を認識し(ステップS204)、音声合成部17hは、文字列認識部17gにより認識された文字列の音声データを合成する(ステップS205)。なお、音声合成部17hは、合成した音声データを、当該音声データを合成するために用いた文字列の撮影画像における位置情報に対応付けて音声記憶部16cに格納する。   Then, the dividing unit 17b divides the photographed image generated by the photographed image generating unit 17a into a plurality of regions (step S203), and the character string recognizing unit 17g recognizes a character string included in the photographed image (step S204). The voice synthesizer 17h synthesizes the voice data of the character string recognized by the character string recognizer 17g (step S205). The voice synthesizer 17h stores the synthesized voice data in the voice storage unit 16c in association with position information in the captured image of the character string used to synthesize the voice data.

その後、表示制御部17cは、撮影画像生成部17aにより生成された撮影画像を表示部12に表示させるように制御し(ステップS206)、表示部12の光センサは、リモコン20から照射された可視光を検知したか否かを判定する(ステップS207)。   Thereafter, the display control unit 17c controls the display unit 12 to display the captured image generated by the captured image generation unit 17a (step S206), and the optical sensor of the display unit 12 is visible from the remote controller 20. It is determined whether or not light is detected (step S207).

ここで、可視光を検知した場合(ステップS207肯定)、表示部12の光センサは、検知した可視光の表示部12における位置を特定する。そして、特定部17dは、表示部12の光センサが特定した可視光の表示部12における位置を取得し、当該取得した位置に対応する領域を分割部17bにより分割された複数の領域から特定する(ステップS208)。   Here, when visible light is detected (Yes at Step S207), the optical sensor of the display unit 12 specifies the position of the detected visible light on the display unit 12. And the specific | specification part 17d acquires the position in the display part 12 of the visible light which the optical sensor of the display part 12 specified, and specifies the area | region corresponding to the said acquired position from the several area | region divided | segmented by the division part 17b. (Step S208).

続いて、拡大画像生成部17eは、特定部17dにより特定された領域を拡大した拡大画像を生成し(ステップS209)、表示制御部17cは、拡大画像生成部17eにより生成された拡大画像を表示部12に表示するように制御する(ステップS210)。   Subsequently, the enlarged image generating unit 17e generates an enlarged image obtained by enlarging the area specified by the specifying unit 17d (Step S209), and the display control unit 17c displays the enlarged image generated by the enlarged image generating unit 17e. It controls to display on the part 12 (step S210).

そして、音声出力制御部17iは、特定部17dにより特定された領域にて文字列が含まれるか否かを判定する(ステップS211)。具体的には、音声出力制御部17iは、音声記憶部16cを参照して、特定部17dにより特定された領域に含まれる位置情報に対応付けられている音声データがあるか否かを判定する。   Then, the audio output control unit 17i determines whether or not a character string is included in the area specified by the specifying unit 17d (step S211). Specifically, the audio output control unit 17i refers to the audio storage unit 16c and determines whether there is audio data associated with the position information included in the area specified by the specifying unit 17d. .

ここで、特定部17dにより特定された領域にて文字列が含まれる場合(ステップS211肯定)、音声出力制御部17iは、当該領域に含まれている文字列から音声合成部17hにより合成された音声データをスピーカ14からから出力するように制御する(ステップS212)。   Here, when the character string is included in the area specified by the specifying unit 17d (Yes in step S211), the voice output control unit 17i is synthesized by the voice synthesizing unit 17h from the character string included in the area. The audio data is controlled to be output from the speaker 14 (step S212).

ステップS211の処理の後、または、表示部12の光センサが可視光を検知しなかった場合(ステップS207否定)、または、特定部17dにより特定された領域にて文字列が含まれていない場合(ステップS211否定)、信号受信部13は、リモコン20から画像処理指示または音声処理指示を受信したか否かを判定する(ステップS213)。ここで、リモコン20から画像処理指示または音声処理指示を受信した場合(ステップS213肯定)、信号受信部13は、受信した指示を指示判定部17fに転送し、指示判定部17fは、信号受信部13から転送された指示の内容を判定する(ステップS214)。すなわち、指示判定部17fは、指示の内容が、拡大画像の拡大処理であるか、拡大画像の縮小処理であるか、拡大画像の消去処理であるか、音声データの音量調整処理であるか、音声データの再生速度調整処理であるかを判定する。   After the process of step S211, when the optical sensor of the display unit 12 does not detect visible light (No at step S207), or when the character string is not included in the area specified by the specifying unit 17d (No at step S211), the signal receiving unit 13 determines whether an image processing instruction or an audio processing instruction is received from the remote controller 20 (step S213). Here, when an image processing instruction or an audio processing instruction is received from the remote controller 20 (Yes in step S213), the signal receiving unit 13 transfers the received instruction to the instruction determining unit 17f, and the instruction determining unit 17f The contents of the instruction transferred from 13 are determined (step S214). That is, the instruction determination unit 17f determines whether the content of the instruction is an enlargement image enlargement process, an enlargement image reduction process, an enlargement image deletion process, or an audio data volume adjustment process. It is determined whether the playback speed adjustment processing is for audio data.

そして、指示判定部17fは、判定結果の内容に応じて、判定結果を拡大画像生成部17eおよび表示制御部17cか、音声出力制御部17iに転送し、判定結果を転送された拡大画像生成部17eおよび表示制御部17c、または、音声出力制御部17iは、判定結果に沿った処理を実行する(ステップS215)。   Then, the instruction determination unit 17f transfers the determination result to the enlarged image generation unit 17e and the display control unit 17c or the audio output control unit 17i according to the content of the determination result, and the enlarged image generation unit to which the determination result has been transferred. 17e and the display control unit 17c or the audio output control unit 17i execute a process according to the determination result (step S215).

ステップS215の処理の後、または、信号受信部13が画像処理指示を受信しなかった場合(ステップS213否定)、文書処理装置10は、処理終了要求を受け付けたか否かを判定する(ステップS216)。   After the process of step S215 or when the signal receiving unit 13 has not received an image processing instruction (No at step S213), the document processing apparatus 10 determines whether a processing end request has been received (step S216). .

ここで、処理終了要求を受け付けなかった場合(ステップS216否定)、ステップS207に戻って、表示部12の光センサは、リモコン20から照射された可視光を検知したか否かを判定する。   Here, when the processing end request is not received (No at Step S216), the process returns to Step S207, and the optical sensor of the display unit 12 determines whether or not the visible light emitted from the remote controller 20 has been detected.

一方、処理終了要求を受け付けた場合(ステップS216肯定)、文書処理装置10は、処理を終了する。   On the other hand, when the process end request is received (Yes at step S216), the document processing apparatus 10 ends the process.

上述してきたように、実施例2では、文字列認識部17gは、撮影画像に含まれる文字列を認識し、音声合成部17hは、文字列認識部17gにより認識された文字列の音声データを合成する。そして、音声出力制御部17iは、特定部17dにより特定された領域にて文字列が含まれる場合、当該文字列から音声合成部17hにより合成された音声データをスピーカ14から出力するように制御する。   As described above, in the second embodiment, the character string recognizing unit 17g recognizes a character string included in the photographed image, and the voice synthesizing unit 17h uses the voice data of the character string recognized by the character string recognizing unit 17g. Synthesize. Then, when the character string is included in the area specified by the specifying unit 17d, the voice output control unit 17i performs control so that the voice data synthesized by the voice synthesizing unit 17h from the character string is output from the speaker 14. .

したがって、実施例2によれば、受領者は、自身が見えにくい、または、読みにくい箇所を拡大して参照できるとともに、当該箇所に含まれる文字を音声にて認識することができる。その結果、受領者は、見えにくい、または、読みにくい文書の内容を音声により容易に把握することが可能となる。   Therefore, according to the second embodiment, the recipient can enlarge and refer to a place where the recipient is difficult to see or read, and can recognize the characters included in the place by voice. As a result, the recipient can easily grasp the contents of the document which is difficult to see or read by voice.

また、実施例2では、リモコン20は、スピーカ14から出力される音声の音量および再生速度を調整するための音声処理指示を送信し、信号受信部13は、リモコン20から受信した音声処理指示を指示判定部17fに転送し、指示判定部17fは、信号受信部13から転送された画像処理指示の内容を判定する。そして、指示判定部17fは、判定結果を音声出力制御部17iに転送し、音声出力制御部17iは、判定結果に沿った音量または再生速度の調整制御を行なう。   In the second embodiment, the remote controller 20 transmits an audio processing instruction for adjusting the volume and reproduction speed of the audio output from the speaker 14, and the signal receiving unit 13 receives the audio processing instruction received from the remote controller 20. The instruction determination unit 17 f determines the content of the image processing instruction transferred from the signal reception unit 13. Then, the instruction determination unit 17f transfers the determination result to the audio output control unit 17i, and the audio output control unit 17i performs control for adjusting the volume or the reproduction speed according to the determination result.

したがって、実施例2によれば、受領者は、リモコン20のボタンを操作するといった簡単な操作のみで、スピーカ14から出力される音声の音量および再生速度を自身が認識しやすい音量または再生速度に変更することができる。その結果、受領者は、自信が見えにくい、または、読みにくい箇所を音声によりさらに容易に把握することが可能となる。   Therefore, according to the second embodiment, the recipient can make the sound volume and reproduction speed of the sound output from the speaker 14 easily recognizable by only a simple operation such as operating a button on the remote controller 20. Can be changed. As a result, the recipient can more easily grasp the part where his / her confidence is difficult to see or read by voice.

なお、上記した実施例1および2では、拡大画像の表示に際してリモコン20から可視光が照射される場合について説明したが、本発明は、拡大画像の表示に際してリモコン20から赤外線などが照射される場合であってもよい。   In the first and second embodiments described above, the case where visible light is emitted from the remote controller 20 when displaying an enlarged image has been described. However, the present invention applies when infrared light or the like is emitted from the remote controller 20 when displaying an enlarged image. It may be.

また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   In addition, among the processes described in this embodiment, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

なお、本実施例で説明した文書処理方法は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   The document processing method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. The program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read from the recording medium by the computer.

以上のように、本発明に係る文書処理方法および文書処理システムは、紙媒体の文書を画像処理する場合に有用であり、特に、見えにくい、または、読みにくい文書の内容を容易に把握することに適する。   As described above, the document processing method and the document processing system according to the present invention are useful when image processing is performed on a paper medium document, and in particular, it is easy to grasp the contents of a document that is difficult to see or read. Suitable for.

10 文書処理装置
11 スキャナー
12 表示部(光センサ内蔵ディスプレイ)
13 信号受信部
14 スピーカ
15 入力部
16 記憶部
16a 画像記憶部
16b 分割結果記憶部
17 制御部
17a 撮影画像生成部
17b 分割部
17c 表示制御部
17d 特定部
17e 拡大画像生成部
17f 指示判定部
20 リモコン
21 可視光スイッチ
22 照射口
23 拡大ボタン
24 縮小ボタン
25 消去ボタン
10 Document Processing Device 11 Scanner 12 Display Unit (Display with Built-in Optical Sensor)
13 Signal receiver 14 Speaker 15 Input unit 16 Storage unit 16a Image storage unit 16b Division result storage unit 17 Control unit 17a Captured image generation unit 17b Division unit 17c Display control unit 17d Identification unit 17e Enlarged image generation unit 17f Instruction determination unit 20 Remote control 21 Visible light switch 22 Irradiation port 23 Enlarge button 24 Reduce button 25 Erase button

Claims (6)

利用者が配置した文書を撮影した画像を生成する撮影ステップと、
前記撮影ステップにより生成された前記画像を複数の領域に分割する分割ステップと、
前記撮影ステップにより生成された前記画像を所定の表示部に表示させるように制御する表示制御ステップと、
前記表示制御ステップの制御により前記画像が前記所定の表示部に表示された状態で、当該所定の表示部に対して光送信装置から送信された光を検知する検知ステップと、
前記検知ステップが検知した前記光の位置を取得し、当該取得した位置に対応する領域を前記分割ステップにより分割された前記複数の領域から特定する特定ステップと、
前記特定ステップにより特定された領域を拡大した拡大画像を生成する拡大画像生成ステップと、
前記拡大画像生成ステップにより生成された前記拡大画像を前記所定の表示部にてさらに表示するように制御する第二の表示制御ステップと、
を含んだことを特徴とする文書処理方法。
A shooting step for generating an image of the document placed by the user;
A dividing step of dividing the image generated by the photographing step into a plurality of regions;
A display control step for controlling the image generated by the photographing step to be displayed on a predetermined display unit;
A detection step of detecting light transmitted from the optical transmission device to the predetermined display unit in a state where the image is displayed on the predetermined display unit by the control of the display control step;
A step of acquiring the position of the light detected by the detection step, and specifying a region corresponding to the acquired position from the plurality of regions divided by the division step;
An enlarged image generating step for generating an enlarged image obtained by enlarging the area specified by the specifying step;
A second display control step for controlling the enlarged image generated by the enlarged image generating step to be further displayed on the predetermined display unit;
A document processing method comprising:
前記第二の表示制御ステップは、前記画像が前記所定の表示部にて表示された状態で、当該画像の前面に前記拡大画像を表示するように制御することを特徴とする請求項1に記載の文書処理方法。   2. The second display control step performs control so that the enlarged image is displayed in front of the image in a state where the image is displayed on the predetermined display unit. Document processing method. 前記撮影ステップにより生成された前記画像に含まれる文字列を認識する文字列認識ステップと、
前記文字列認識ステップにより認識された文字列の音声データを合成する音声合成ステップと、
前記特定ステップにより特定された領域にて文字列が含まれる場合、当該文字列から前記音声合成ステップにより合成された音声データを所定の音声出力部から出力するように制御する音声出力制御ステップと、
をさらに含んだことを特徴とする請求項1または2に記載の文書処理方法。
A character string recognition step for recognizing a character string included in the image generated by the photographing step;
A voice synthesis step of synthesizing voice data of the character string recognized by the character string recognition step;
When a character string is included in the area specified by the specifying step, a voice output control step for controlling the voice data synthesized from the character string by the voice synthesis step to be output from a predetermined voice output unit;
The document processing method according to claim 1, further comprising:
前記光送信装置は、前記所定の表示部にて表示される画像に関する処理を指示するための画像処理指示をさらに送信し、
前記第二の表示制御ステップは、前記光送信装置から送信された前記画像処理指示に基づいて、前記拡大画像の拡大率を制御することを特徴とする請求項1〜3のいずれか一つに記載の文書処理方法。
The optical transmission device further transmits an image processing instruction for instructing processing related to an image displayed on the predetermined display unit,
The second display control step controls an enlargement ratio of the enlarged image based on the image processing instruction transmitted from the optical transmission device. The document processing method described.
前記光送信装置は、前記所定の音声出力部から出力される音声データに関する処理を指示するための音声処理指示をさらに送信し、
前記音声出力制御ステップは、前記光送信装置から送信された前記音声処理指示に基づいて、前記音声データの音量、または前記音声データの再生速度を制御することを特徴とする請求項1〜4のいずれか一つに記載の文書処理方法。
The optical transmission device further transmits an audio processing instruction for instructing processing related to audio data output from the predetermined audio output unit;
The audio output control step controls the volume of the audio data or the reproduction speed of the audio data based on the audio processing instruction transmitted from the optical transmitter. The document processing method according to any one of the above.
文書に対して処理を行なう文書処理装置と、光を送信する光送信装置とを含む文書処理システムであって、
前記文書処理装置は、
利用者が配置した文書を撮影した画像を生成する撮影手段と、
前記撮影手段により生成された前記画像を複数の領域に分割する分割手段と、
前記撮影手段により生成された前記画像を所定の表示部に表示させるように制御する表示制御手段と、
前記表示制御手段の制御により前記画像が前記所定の表示部に表示された状態で、当該所定の表示部に対して前記光送信装置から送信された光を検知する検知手段と、
前記検知手段が検知した前記光の位置を取得し、当該取得した位置に対応する領域を前記分割手段により分割された前記複数の領域から特定する特定手段と、
前記特定手段により特定された領域を拡大した拡大画像を生成する拡大画像生成手段と、
前記拡大画像生成手段により生成された前記拡大画像を前記所定の表示部にてさらに表示するように制御する第二の表示制御手段と、
を備えたことを特徴とする文書処理システム。
A document processing system including a document processing device that processes a document and an optical transmission device that transmits light,
The document processing apparatus includes:
Photographing means for generating an image of a document placed by a user;
Dividing means for dividing the image generated by the photographing means into a plurality of regions;
Display control means for controlling the image generated by the photographing means to be displayed on a predetermined display unit;
Detection means for detecting light transmitted from the optical transmission device to the predetermined display section in a state where the image is displayed on the predetermined display section under the control of the display control section;
A specifying unit that acquires the position of the light detected by the detecting unit, and that specifies the region corresponding to the acquired position from the plurality of regions divided by the dividing unit;
An enlarged image generating means for generating an enlarged image obtained by enlarging the area specified by the specifying means;
Second display control means for controlling to further display the enlarged image generated by the enlarged image generating means on the predetermined display unit;
A document processing system comprising:
JP2010073470A 2010-03-26 2010-03-26 Document processing method and document processing system Expired - Fee Related JP5554110B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010073470A JP5554110B2 (en) 2010-03-26 2010-03-26 Document processing method and document processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010073470A JP5554110B2 (en) 2010-03-26 2010-03-26 Document processing method and document processing system

Publications (2)

Publication Number Publication Date
JP2011204190A true JP2011204190A (en) 2011-10-13
JP5554110B2 JP5554110B2 (en) 2014-07-23

Family

ID=44880739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010073470A Expired - Fee Related JP5554110B2 (en) 2010-03-26 2010-03-26 Document processing method and document processing system

Country Status (1)

Country Link
JP (1) JP5554110B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016042834A1 (en) * 2014-09-16 2016-03-24 日本電気株式会社 Method for enlarging content in split screen, information processing device and control method and control program therefor
WO2019039591A1 (en) * 2017-08-24 2019-02-28 株式会社オトングラス Read-out system and read-out method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322012A (en) * 1994-05-27 1995-12-08 Fuji Xerox Co Ltd Picture input/output device
JPH0944383A (en) * 1995-06-30 1997-02-14 Ricoh Co Ltd Method and device for conversion between hard copy document and electronic document
JPH1097608A (en) * 1996-09-20 1998-04-14 Matsushita Graphic Commun Syst Inc Device for preparing image information structuring document
JPH10149150A (en) * 1996-11-18 1998-06-02 Sony Corp Unit and method for image display control, and recording medium
JPH10269230A (en) * 1997-03-24 1998-10-09 Ricoh Co Ltd Document management system
JPH10320169A (en) * 1997-03-14 1998-12-04 Fujitsu Ltd Electronic information device
JP2000113098A (en) * 1998-10-06 2000-04-21 Canon Inc Processor, system, and method for document processing, and storage medium
JP2001209645A (en) * 2000-01-24 2001-08-03 Ricoh Co Ltd Filing system
JP2005122682A (en) * 2003-07-16 2005-05-12 Ricoh Co Ltd Document processing system, document processing method and document processing program
JP2007073057A (en) * 2002-09-26 2007-03-22 Kenji Yoshida Computer-executable program
JP2009063685A (en) * 2007-09-05 2009-03-26 Sharp Corp Display method and projector

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322012A (en) * 1994-05-27 1995-12-08 Fuji Xerox Co Ltd Picture input/output device
JPH0944383A (en) * 1995-06-30 1997-02-14 Ricoh Co Ltd Method and device for conversion between hard copy document and electronic document
JPH1097608A (en) * 1996-09-20 1998-04-14 Matsushita Graphic Commun Syst Inc Device for preparing image information structuring document
JPH10149150A (en) * 1996-11-18 1998-06-02 Sony Corp Unit and method for image display control, and recording medium
JPH10320169A (en) * 1997-03-14 1998-12-04 Fujitsu Ltd Electronic information device
JPH10269230A (en) * 1997-03-24 1998-10-09 Ricoh Co Ltd Document management system
JP2000113098A (en) * 1998-10-06 2000-04-21 Canon Inc Processor, system, and method for document processing, and storage medium
JP2001209645A (en) * 2000-01-24 2001-08-03 Ricoh Co Ltd Filing system
JP2007073057A (en) * 2002-09-26 2007-03-22 Kenji Yoshida Computer-executable program
JP2005122682A (en) * 2003-07-16 2005-05-12 Ricoh Co Ltd Document processing system, document processing method and document processing program
JP2009063685A (en) * 2007-09-05 2009-03-26 Sharp Corp Display method and projector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016042834A1 (en) * 2014-09-16 2016-03-24 日本電気株式会社 Method for enlarging content in split screen, information processing device and control method and control program therefor
WO2019039591A1 (en) * 2017-08-24 2019-02-28 株式会社オトングラス Read-out system and read-out method

Also Published As

Publication number Publication date
JP5554110B2 (en) 2014-07-23

Similar Documents

Publication Publication Date Title
US11557322B2 (en) Method and device for generating multimedia resource
US9558591B2 (en) Method of providing augmented reality and terminal supporting the same
JP2013046151A (en) Projector, projection system, and information search display method
US9491401B2 (en) Video call method and electronic device supporting the method
KR102655625B1 (en) Method and photographing device for controlling the photographing device according to proximity of a user
KR101392406B1 (en) Method and Apparatus for Chromakey compositing of Subject Image and Background Image
JP5554110B2 (en) Document processing method and document processing system
CN113170049A (en) Triggering automatic image capture using scene changes
KR102138835B1 (en) Apparatus and method for providing information exposure protecting image
JP2014107775A (en) Electronic camera
JP6680579B2 (en) Information support system for the show
KR20150103591A (en) Video display device and operating method thereof
JP2005175839A (en) Image display device,image display method, program, and recording medium
JP4876736B2 (en) Document camera device
JP2010262072A (en) Digital television-compatible karaoke system
JP5325012B2 (en) Karaoke system with singer image shooting function
JP7365793B2 (en) Imaging device, its control method, and program
JP2015142185A (en) Viewing method, viewing terminal and viewing program
JP7111202B2 (en) SOUND COLLECTION CONTROL SYSTEM AND CONTROL METHOD OF SOUND COLLECTION CONTROL SYSTEM
JP2011215221A (en) Karaoke singer video and singing sound recording system
JP2019053135A (en) Information support system for show
WO2021029294A1 (en) Data creation method and data creation program
JP2011077883A (en) Image file producing method, program for the method, recording medium of the program, and image file producing apparatus
JP2009153077A (en) Information processing device and program
JP2010081301A (en) Photographing apparatus, voice guidance method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140528

R150 Certificate of patent or registration of utility model

Ref document number: 5554110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees