JP6764124B1 - 情報処理装置、情報処理システム、および情報処理プログラム - Google Patents

情報処理装置、情報処理システム、および情報処理プログラム Download PDF

Info

Publication number
JP6764124B1
JP6764124B1 JP2020075747A JP2020075747A JP6764124B1 JP 6764124 B1 JP6764124 B1 JP 6764124B1 JP 2020075747 A JP2020075747 A JP 2020075747A JP 2020075747 A JP2020075747 A JP 2020075747A JP 6764124 B1 JP6764124 B1 JP 6764124B1
Authority
JP
Japan
Prior art keywords
character
information
image
processing device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2020075747A
Other languages
English (en)
Other versions
JP2021174122A (ja
Inventor
剛史 坂巻
剛史 坂巻
裕幸 前川
裕幸 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Client Computing Ltd
Original Assignee
Fujitsu Client Computing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Client Computing Ltd filed Critical Fujitsu Client Computing Ltd
Priority to JP2020075747A priority Critical patent/JP6764124B1/ja
Application granted granted Critical
Publication of JP6764124B1 publication Critical patent/JP6764124B1/ja
Publication of JP2021174122A publication Critical patent/JP2021174122A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】文字処理装置に手書き入力された文字画像の解析を実行させる際に、文字処理装置における処理時間の短縮、コストの軽減が可能なように、解析対象となる文字情報を決定することのできる情報処理装置を提供する。【解決手段】情報処理装置は、文字が手書きされた文字画像と、当該文字画像が表された表示領域に割り当てられた属性を示す属性情報と、を含む画像情報を取得する取得部と、属性情報に基づいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する判定部と、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する抽出部と、を備える。【選択図】図3

Description

本発明の実施形態は、情報処理装置、情報処理システム、および情報処理プログラムに関する。
近年、紙書類に置き換えが可能な情報端末として、いわゆる「電子ペーパー」が普及している。情報端末における表示対象は、例えば、書籍データであったり、取扱説明書データであったり、カタログデータ等である。また、情報端末には、電子ペン等を用いてユーザが手書き入力を行うことができるものもある。このような手書き入力ができる情報端末では、例えば、アンケートの記入が可能になる。また、手書き入力が可能な情報端末の場合、従来の手帳の代わりとして利用することも可能となる。
特開2014−191383号公報
従来の情報端末に表示される情報は、一般的には画像情報(画像データ)である。したがって、情報端末に表示された画像情報に対して文字検索を行おうとする場合は、例えば、画像情報に対応する内容の透明テキストを予め埋め込み、検索時には、透明テキストを用いて検索することが考えられる。この場合、手書き入力された文字(文字画像)は、別途、文字処理装置等を用いて、文字画像に対応する透明テキストを作成して、文字画像と同じ位置(座標)に埋め込む必要が生じる。透明テキストの作成は、ある程度の手書き入力が行われた段階でまとめて実行されることになる。しかしながら、手書き入力された文字画像の量が多い場合、透明テキストを作成する解析処理に時間やコストがかかってしまうという問題がある。また、画像情報における手書き文字の一部が変更された場合や更新された場合に、既に解析済みの画像情報が再解析されてしまう可能性がある。この場合、解析時間の増加や解析コストが増加してしまうという問題がある(多くの場合、文字単位でコストが発生する)。
本発明が解決する課題の一例は、文字処理装置に手書き入力された文字画像の解析を実行させる際に、文字処理装置における処理時間の短縮、コストの軽減が可能なように、解析対象となる文字情報を決定することのできる情報処理装置、情報処理システム、および情報処理プログラムを提供することにある。
本発明の第1態様に係る情報処理装置は、文字が手書きされた文字画像と、当該文字画像が表された表示領域に割り当てられた属性を示す属性情報と、を含む画像情報を取得する取得部と、前記属性情報に基づいて、前記文字画像をテキストデータに変換する解析対象とするか否かを判定する判定部と、前記解析対象と判定された前記文字画像に対応する表示領域から、手書きされた前記文字を表した前記文字の画像を抽出する抽出部と、を備える。
本発明の第2態様に係る情報処理システムは、情報端末と、情報処理装置と、文字処理装置と、を備えるシステムである。前記情報端末は、手書き入力を受け付ける受付部と、手書き入力された文字を示した文字画像と、当該文字画像が表された表示領域に割り当てられた属性を示す属性情報と、を含む画像情報を送信する送信部と、前記画像情報を表示する表示部と、前記文字を検索する検索部と、を備える。前記情報処理装置は、前記画像情報を取得する取得部と、前記属性情報に基づいて、前記文字画像をテキストデータに変換する解析対象とするか否かを判定する判定部と、前記解析対象と判定された前記文字画像に対応する表示領域から、手書きされた前記文字を表した前記文字画像を抽出する抽出部と、前記抽出した前記文字画像を文字処理装置に送信する出力部と、を備える。前記文字処理装置は、前記情報処理装置から前記抽出した前記文字画像を受信する受信部と、前記文字画像をテキストデータに変換する文字処理部と、変換したテキストデータを前記情報処理装置に送信する送信部と、を備える。
本発明の第3態様に係る情報処理プログラムは、文字が手書きされた文字画像と、当該文字画像が表された表示領域に割り当てられた属性を示す属性情報と、を含む画像情報を取得する取得処理と、前記属性情報に基づいて、前記文字画像をテキストデータに変換する解析対象とするか否かを判定する判定処理と、前記解析対象と判定された前記文字画像に対応する表示領域から、手書きされた前記文字を表した前記文字の画像を抽出する抽出処理と、を情報処理装置に実行させる。
本発明の上記態様によれば、文字画像をテキストデータに変換する解析対象とするか否かを判定し、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する。その結果、手書き入力された文字画像の解析を実行させる際に、処理時間の短縮、コストの軽減が可能なように、解析対象となる文字情報を決定することのできる情報処理装置、情報処理システム、および情報処理プログラムを得ることができる。
図1は、実施形態にかかる情報処理装置を含む情報処理システムの構成を示す例示的かつ模式的な図である。 図2は、実施形態にかかる情報処理装置で扱う画像情報において、文字検索を可能にする構成を説明する例示的かつ模式的な図である。 図3は、実施形態にかかる情報処理システムを構成する、情報端末、情報処理装置、文字処理装置のそれぞれの構成を示す例示的かつ模式的なブロック図である。 図4は、実施形態にかかる情報処理装置で扱う画像情報として、手書き入力された文字画像を示す例示的な図である。 図5は、実施形態にかかる情報処理装置において、手書き入力された文字画像に対する属性情報の付与状態を示す例示的な説明する図である。 図6は、実施形態にかかる情報処理装置において、解析対象の判定に用いる属性情報が付与される文字画像の表示態様を説明する例示的かつ模式的な図である。 図7は、実施形態にかかる情報処理装置において、手書き入力された文字画像が文字列として結合された状態を示す例示的かつ模式的な説明図である。 図8は、実施形態にかかる情報処理システムにおける処理シーケンスを説明する例示的かつ模式的な図である。 図9は、本実施形態にかかる情報処理装置において、文字画像をテキストデータに変換する解析対象とするか否かを判定する処理の流れを説明する例示的なフローチャートである。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。
本実施形態の情報処理装置は、情報端末において手書きされた文字画像を検索可能なテキストデータに変換して、文字画像に対応位置にそのテキストデータを埋め込む処理を行う場合に、テキストデータに変換が必要な文字画像のみを選択して、解析、変換処理を実行させるようにする。その結果、不要な文字画像の解析処理や変換処理、重複した処理等を抑制し、解析、変換処理に要する時間の短縮や処理コストの軽減を行う。
図1は、本実施形態にかかる情報処理装置(例えばパーソナルコンピュータ:PC)10を含む情報処理システム100の構成を示す例示的かつ模式的な図である。情報処理システム100は、情報処理装置10と無線または有線で接続され、情報の送受が可能な情報端末12(電子ペーパーと称する場合もある)と、情報処理装置10とクラウド14を介して情報の送受が可能な文字処理装置16とで構成されている。
情報端末12は、いわゆる「電子ペーパー」とすることができる。情報端末12は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリやSSD(Solid State Drive)等の記憶部、通信インターフェース、入出力インターフェース等で構成されている。
情報端末12(電子ペーパー)は、例えば、周知の「マイクロ・カプセル」に包まれる表示用の「電子インク」と称される電子粉の電気泳動を利用した電子粉流体方式等で表示を行う表示装置である。情報端末12は、電子粉の電気泳動を利用した表示を行うことにより、表示内容を書き換えるときだけ電力を必要とする表示装置とすることができる。つまり、情報端末12に一度表示された画像は、その表示中に電力消費を伴わず、情報端末12の電力消費の軽減に大きく寄与できる。また、情報端末12は、通信機能と組み合わせることで、容易に最新情報の取得および表示が可能となる。
また、情報端末12は、電子ペン12p等を用いて、表示部(表示画面)上でペン先を移動させることにより、電子インクの状態を変化させて、手書き入力が可能である。さらに、情報端末12は、電子ペン12pを用いて手書き入力を行う際に、入力される線の太さや、線の色などの表示態様の選択を受け付けることが可能である。
したがって、情報端末12は、従来の手書きの手帳の代わりとして利用することができる。さらに、図2に示されるように、情報端末12において、表示される画像情報Pは、スキャナ等で取り込まれたイメージデータP1に、当該イメージデータP1における文字画像に対応する位置(座標)に、表示態様などを示した属性情報と、透明テキストP2(テキストデータ)と、を埋め込み可能とする。透明テキストP2は、画像情報Pには表示されない情報であるため、情報端末12を利用するユーザには、イメージデータP1のみが視認可能となり、違和感のない表示を行いつつ、テキストデータを用いた文字検索を実現することが可能となる。画像情報Pは、例えば、PDF形式のデータが考えられるが、他の形式のデータであっても良い。
情報処理装置10は、一般的なパーソナルコンピュータを利用可能であり、CPU、ROM、RAM、HDD(Hard Disk Drive)やSSD等の記憶部、通信インターフェース、入出力インターフェース等で構成されている。
情報処理装置10は、前述したように、情報端末12で文字検索を実行するために必要な透明テキストP2を得るために、画像情報Pを情報端末12から取り込み、画像情報Pにおけるどの表示領域の文字画像をテキストデータに変換する解析対象とするか否かを判定する判定処理を実行する。また、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する抽出処理を実行する。そして、抽出した文字の画像を文字処理装置16に送信して、文字認識やテキストデータ化処理等を実行させる。
文字処理装置16は、例えば、クラウド14を介して接続された装置に対してサービスを提供するサーバとするが、情報処理装置10に直接接続された装置でもよい。文字処理装置16は、情報処理装置10によって解析対象とされた文字の画像を取得すると、周知の文字認識処理を実行して、文字の画像をテキストデータに変換して透明テキストP2を生成する。そして、生成した透明テキストP2を情報処理装置10に送信する。
文字処理装置16もまた一般的なパーソナルコンピュータで構成可能であり、CPU、ROM、RAM、HDDやSSD等の記憶部と、通信インターフェース等で構成されている。
情報処理装置10は、文字処理装置16から送信された透明テキストP2を情報端末12から取得している画像情報Pの対応する部分(座標)に埋め込む処理を実行し、情報端末12に返送する。その結果、情報端末12では、手書き文字画像がテキストデータとして認識可能となり、文字検索を実行することが可能となる。
このように構成される情報処理システム100における情報端末12、情報処理装置10、文字処理装置16の詳細な構成を図3に示される例示的かつ模式的なブロック図を用いて説明する。
情報端末12は、画像情報Pの表示、電子ペン12pにより手書き入力された文字画像の表示等を行う表示処理と、画像情報Pや文字画像等によって表示されている文字の検索処理等を実行するためのモジュールを備える。情報端末12は、例えば、受付部12a、記憶部12b、表示部12c、送受信部12d、検索部12e等を備える。
受付部12aは、画像情報受付部12a1と手書き画像受付部12a2とを含む。画像情報受付部12a1は、予め作成された閲覧用の画像情報(書籍データ、取扱説明書データ、カタログデータ、資料データ、記入用紙データ等)を、送受信部12dを介して受け付け、記憶部12bに逐次記憶させる。
手書き画像受付部12a2は、表示部(表示画面)上に描かれた文字等の手書き文字を画像(イメージデータ)として受け付ける。そして、手書き画像受付部12a2は、表示画面上に表示されている画像情報P(書籍データや資料データ等)の位置(座標)と手書き文字が入力された位置(座標)とを対応付けて、記憶部12bに逐次記憶させる。図4は、電子ペン12pを用いて手書き入力された文字画像Iを示す例示的な図である。図4は、手書きの文字画像Iとして、以下のような内容が入力された例である。
「Meeting reservation
On February 5, in the third meeting room at the head office start at 15:00 and make a reservation for the meeting room.」
記憶部12bは、書き換え可能な不揮発性の記憶装置であり、例えば、フラッシュメモリやSSD等である。記憶部12bは、受付部12aが受け付けた画像情報Pや手書きの文字画像等を逐次記憶する。
表示部12cは、記憶部12bに記憶された画像情報Pや手書きの文字画像を読み出し表示させることができる。表示部12cは、上述したように、周知の「マイクロ・カプセル」に包まれる表示用の「電子インク」と称される電子粉の電気泳動を利用した電子粉流体方式等で画像情報Pや手書きの文字画像等の表示を行う。電子インクは、微小の黒微粒子と白微粒子を透明の液体に浮遊させた状態で構成される。電子インクの微粒子は電荷を有している。例えば、白色微粒子が正電荷を有し、黒色微粒子が負電荷を有している。そして、マイクロ・カプセルは上側の透明電極板と下側の下層電極板との間に挟まれている。したがって、透明電極板に負電圧が印加されると、正電荷を有する白色微粒子が透明電極板に引き付けられて、透明電極板に白色を表示させる。この場合、負電荷を有する黒色微粒子は、下層電極板側に移動して隠される。結果的に、マイクロ・カプセルは白色を表面側に向け、情報端末12の表示部12c(表示画面)において白色表示が行われる。また、透明電極板に正電圧が印加されると、黒色微粒子と白色微粒子の移動方向が逆になり、マイクロ・カプセルは黒色を表面側に向け、情報端末12の表示部12cにおいて黒色表示が行われる。このように、電子粉の電気泳動を利用することにより、情報端末12は、表示内容を書き換えるときだけ電力を必要とする表示装置とすることができる。
送受信部12dは、情報端末12が情報処理装置10と有線または無線で接続された場合に、情報処理装置10で実行される後述する判定処理や抽出処理の対象となる画像情報Pの送信を行う。また、送受信部12dは、文字処理装置16で実行された文字解析処理(手書きの文字画像をテキストデータに変換する処理)の結果としてのテキストデータが埋め埋め込まれた画像情報Pを情報処理装置10から受信する。なお、送受信部12dは、ネットワークを介して提供される既存の画像情報P(例えば、書籍データや資料データ等)も受信可能である。
検索部12eは、表示部12cに表示されている画像情報Pの表示内容に対応して埋め込まれたテキストデータ(透明テキスト)を用いて、画像情報Pから文字検索を行う。検索部12eに、例えば「会議」という文字が入力されると、画像情報Pに埋め込まれた透明テキストから、「会議」というテキストデータが検索される。表示部12cでは、検索結果に対応する文字を、例えば強調表示することによりユーザに認識し易い状態で表示する。
情報処理装置10は、主として、手書きの文字画像をテキストデータに変換する解析対象とするか否かを判定する判定処理と、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する抽出処理を実行する。このような処理を実行するために、情報処理装置10は、例えば、取得部10a、判定部10b、抽出部10c、画像情報結合部10d、出力部10e等のモジュールを備える。これらのモジュールは、情報処理装置10のCPUがROM等の不揮発性の記憶部に記憶された(インストールされた)情報処理プログラムを読み出し、当該情報処理プログラムに従って演算処理を実行することにより実現される。なお、判定部10bは、詳細モジュールとして、属性取得部18、比較部20を含み、属性取得部18は、領域抽出部18a、表示態様取得部18b、第1タイムスタンプ取得部18c等を含む。また、比較部20は、第2タイムスタンプ取得部20aを含む。また、出力部10eは、第1出力部10e1と第2出力部10e2とを含む。
取得部10aは、情報端末12において生成された手書きされた文字画像I(図4参照)と、当該文字画像Iが表された表示領域に割り当てられた属性を示す属性情報(注釈データと称する場合がある)と、を含む画像情報Pを情報端末12の送受信部12dを介して取得する取得処理を実行する。また、取得部10aは、第1出力部10e1が文字処理装置16に送信した解析対象の文字の画像が、テキストデータに変換された後に文字処理装置16から返送された場合に、そのテキストデータを取得(受信)する。
属性情報(注釈データ)とは、画像情報Pに含まれるメタデータであり、例えば、画像情報Pにおける文字画像の位置を示す座標データと関連付けられて生成されている。属性情報は、情報端末12上で電子ペン12pによって手書き文字が入力されたタイミングで生成される。図5は、手書きされた文字画像Iに対する属性情報22の付与状態を示す例示的な説明する図である。なお、図5では図示の都合上、符号の属性情報22の記載を一部省略している。属性情報22は、情報端末12の表示部12c上では表示されないが、情報処理装置10の表示部(不図示)上で必要に応じて表示することができる。属性情報22は、情報処理装置10の表示部上では、例えば、青色の四角で表示される。属性情報22は、例えば、文字画像Iを構成する各文字画像の塊の状態に基づいて、自動的に付与される。図5に示される例では、タイトルとして書かれた「Meeting」の場合、「Meet」と「ing」が別々に認識され、それぞれの属性情報22が付与されている。また、「reservation」は、一塊で認識され、一つの属性情報22が付与されている。属性情報22の塊の大きさ(長さ)は、例えば、各文字画像の間隔の違いや、各文字画像を手書きしたときの連続性等に基づき決定される。
例えば、「Meet」と「ing」との間の空間が他の文字画像の空間、例えば、「M」と「e」との間の空間より広い場合、「Meet」と「ing」とが別々の塊として認識される。また、「Meet」と「ing」の間の空間が他の文字画像の空間と実質的に同じ場合でも、例えば、「Meet」と書いた後に「ing」を書き始めるまでの時間が、「M」と「e」を書く間の時間より長かった場合、例えば、一拍おいて、「ing」を書いた場合、「Meet」と「ing」とが別々の塊として認識される。したがって、同じ文字列の文字画像の場合でも手書きされたときの状態によって、属性情報22として認識される塊の大きさが異なる。例えば、タイトルとして書かれた「reservation」という文字列は、一塊の属性情報22として認識されている。一方、本文中に書かれた「reservation」という文字列は、三つの塊として認識され、三つの属性情報22が付与されている。
属性情報22が有する情報は、例えば、当該属性情報22が作成された時刻(日時)情報が含まれる。属性情報22が付与された時刻(手書きされた日時)が、例えば、2019年12月31日00時00分00秒の場合、時刻情報として、「20191231000000」というタイプスタンプが付与される。属性情報22の作成時に付与されるタイムスタンプを第1タイムスタンプと称する。第1タイムスタンプ(属性情報22)は、手書きの文字画像が解析対象の画像か否か判定する際に利用することができる。第1タイムスタンプ(属性情報22)の利用については後述する。
また、属性情報22が有する他の情報として、例えば、電子ペン12pで手書きを行う場合に選択したペン色(例えば、青色や赤色等)の情報や電子ペン12pの線の太さ、線種等の表示態様を示す情報が含まれる。図6は、属性情報22が付与される文字画像Iの表示態様を説明する例示的かつ模式的な図である。図6は、図示の関係で、青色文字ペンを選択して手書きした文字画像Iaを細字で表し、赤色文字ペンを選択して手書きした文字画像Ibを太字で表している。使用するペン色を異ならせることにより、後から検索対象にするか否かを識別させることができる。例えば、ユーザが後から文字検索を行いたいと考える場合、検索対象として「文章」を指定することは少なく、多くの場合、「単語」や「熟語」を指定して検索を行う。例えば、「Meeting reservation」を、他の文字画像Iとは異なるペン色、例えば、赤色文字ペンを選択して手書きしておけば、「Meeting reservation」のみを解析対象としてテキストデータに変換しておけばよいことになる。この場合、ユーザが求める「Meeting reservation」の内容、すなわち、図4の本文を迅速に認識することができる。このように、属性情報22に含まれる文字画像Iの表示態様を用いて文字情報を解析対象とするか否かを決定することが可能となり、文字処理装置16における解析時間の短縮、解析コストの低減を図ることできる。また、他の実施形態では、属性情報22として、図6に示される通り、文字の線の太さを用いてもよい。この場合、細字文字ペンを選択して手書きした文字画像Iaで表し、太字文字ペンを選択して手書きした文字画像Ibを表す。そして、後から検索したい文字画像を、太字文字ペンを選択して手書きしておけば、太文字の文字情報のみを解析対象として判定する処理を容易に行うことができる。同様に、属性情報22が有する情報として、電子ペン12pの線種、例えば、実線と破線等を用いてもよく同様の効果を得ることができる。属性情報22に含まれる文字画像Iの表示態様の利用詳細については後述する。
画像情報Pは、様々な状況で利用される。このため、画像情報Pに埋め込まれ文字画像のデータ量が大きい場合もある。このような場合に全ての文字画像に対応するテキストデータを生成すると、文字処理装置16の処理負担が大きくなる。また、文字処理装置16でテキストデータに変換するサービスが有料な場合には、コストが大きくなる。
さらには、画像情報Pに埋め込まれた文字画像に対応するテキストデータが埋め込まれた後に、別の文字画像が埋め込まれた場合に、画像情報P全体についてテキストデータに変換しようとすると、同一の文字画像に対して複数回テキストデータへの変換が行われることになる。そこで、本実施形態においては、文字画像に対応付けられた属性情報22に応じて解析対象とするか否かを判定することとした。
例えば、本実施形態においては、情報端末12を利用するユーザに対して、テキストデータへの変換対象となるための文字の色や、線種を、連絡しておく。これにより、ユーザは、テキストデータに変換したい文字について、当該連絡に従って、文字の色や線種を設定する。これにより、テキストデータの解析対象となる文字を設定可能となる。そして、情報処理装置10においては、下記の構成を備えることで、必要に応じて文字画像をテキストデータに変換することが可能となる。
判定部10bは、属性情報22(色、線種、タイムスタンプ等)に基づいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する。
属性取得部18の領域抽出部18aは、取得部10aが取得した画像情報Pから属性情報22を抽出する。属性情報22は前述したように、手書きの文字情報が生成されたときの各文字画像の間隔や文字情報が生成されたときの時間差等により、自動的に設定される。
表示態様取得部18bは、属性情報22に含まれる表示態様を示すデータを、属性情報22毎に取得する。例えば、文字情報が手書きされた際に利用された電子ペン12pのペン色やペンの太さ等の情報を取得する。
判定部10bは、表示態様取得部18bが取得した属性情報22としての表示態様に基づき、文字画像をテキストデータに変換する解析対象とするか否かを判定する。例えば、赤色文字ペンを選択して手書きされた文字画像のみを解析対象とすると決めておくことにより、判定部10bは、画像情報Pに含まれる複数の属性情報22から解析対象とすべき属性情報22(文字画像)を容易に絞り込むことができる。
第1タイムスタンプ取得部18cは、属性情報22に含まれる第1タイムスタンプを示すデータを、属性情報22毎に取得する。第1タイムスタンプ取得部18cは、取得した第1タイムスタンプを比較部20に提供する。
比較部20の第2タイムスタンプ取得部20aは、取得部10aが取得した画像情報Pに埋め込まれている第2タイムスタンプを取得する。第2タイムスタンプは、情報処理装置10が文字処理装置16に対して文字画像をテキストデータに変換する要求を行った時刻を示す情報である。つまり、今回の処理で取得部10aが取得した画像情報Pと同じ画像情報Pが、取得部10aで過去に取得され、そのときに、文字画像を解析対象にするか否かの判定が全て完了した場合に、処理の完了を示す時刻(日時)として第2タイムスタンプが画像情報Pに付与される。したがって、取得部10aが今回取得した画像情報Pに新たに手書き文字画像が追加されていたり、文字画像が修正されていたりする場合、追加や修正が行われた属性情報22に付与される第1タイムスタンプが示す時刻(日時)は、画像情報Pに付与されている第2タイムスタンプが示す時刻(日時)より後の時刻となる。つまり、比較部20は、今回の処理で、第2タイムスタンプと、画像情報Pに埋め込まれた各属性情報22の第1タイムスタンプとを比較することにより、新たに追記されたり、修正されたりした属性情報22(文字画像)を容易に特定することができる。
例えば、今回の処理で対象としている画像情報Pに「20200114000000」という第2タイムスタンプが埋め込まれていた場合を考える。この場合、前回の処理で、情報処理装置10が文字処理装置16に対して文字画像をテキストデータに変換する要求を行った時刻(属性情報22対する判定処理が全て完了した時刻)が、2020年01月14日00時00分00秒であることを示す。一方、今回の処理で対象としている画像情報Pに含まれる属性情報22(文字画像)の第1タイムスタンプが、「20191231000000」の場合、両者を比較すると、第2タイムスタンプ>第1タイムスタンプとなる。つまり、「20191231000000」という第1タイムスタンプが付与された属性情報22は、既に前回の処理以前に解析対象とされ、文字処理装置16において、文字認識処理(テキストデータ化)が行われていることになる。この場合、第2タイムスタンプ>第1タイムスタンプとなった属性情報22は、これ以降は判定処理自体が不要であると見なせるので、解析対象外ファイルに移動してもよい。その結果、次回処理における比較部20の処理が軽減できる。逆に、第2タイムスタンプ<第1タイムスタンプとなる、第1タイムスタンプが付与された属性情報22が存在する場合、その属性情報22(文字画像)は、前回の処理の後に、追記または修正された文字画像であり、今回の処理で、解析対象とする必要がある属性情報22であると見なすことができる。
したがって、判定部10bは、文字画像をテキストデータに変換する解析対象とするか否かを判定する場合、第1段階処理として、表示態様取得部18bが取得した属性情報22の表示態様に基づいて、ユーザが希望する文字画像を解析対象とする。例えば、電子ペン12pを使用する場合に赤色文字ペンを選択して手書きした文字画像に対応する属性情報22を解析対象とする。そして、判定部10bは、第2段階処理として、画像情報Pに埋め込まれている第2タイムスタンプと、各属性情報22に埋め込まれている属性情報22(この場合、赤色文字ペンを示す属性情報22)の第1タイムスタンプとの比較を行い、過去に解析対象にされていない属性情報22を今回の解析対象とする。このように、判定部10bは、2段階で判定処理を行うことにより、解析対象とする属性情報22を高精度に選択することができる。なお、判定部10bは、上述した第1段階処理(表示態様に基づく判定)のみを実行して、解析対象にするか否かの判定を行ってもよい。この場合、解析対象の判定精度を容易に向上することができる。また、ユーザの希望する文字画像のみを解析対象とすることができるので、判定処理が容易になる。また、判定部10bは、第2段階処理(タイムスタンプの比較に基づく判定)のみを実行して、解析対象にするか否かの判定を行ってもよい。この場合、解析対象が重複してしまうことを容易に回避し、テキストデータへの変換コストの削減に寄与できる。また、画像情報Pがアップデートされた部分(追記、修正された部分)のみを解析対象とすることができるので、処理効率を向上することができる。
抽出部10cは、判定部10bにおいて、解析対象と判定された属性情報22(文字画像)に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する。判定部10bにおいて、例えば図5における「February 5」に対応する属性情報22が、解析対象と判定された場合、抽出部10cは、「February 5」が対応する表示領域から「February 5」の画像を抽出する。
画像情報結合部10dは、解析対象と判定されたて抽出部10cによって抽出された画像が、文字処理装置16に送られ、テキストデータに変換され、返送されてきた場合、そのテキストデータ(透明テキスト)に対する処理を実行する。画像情報結合部10dは、返送されたテキストデータを解析対象と判定された属性情報22の対応する位置(座標)に埋め込む場合に、テキストデータを文字列として統合し、検索可能な状態にする。例えば、図5おいて、「February」は、「Februa」と「ry」に属性情報22が分離されている。この場合、それぞれの属性情報22にテキストデータが埋め込まれた場合でも、検索部12eは、「February」という単語を検索することができない場合がある。そこで、画像情報結合部10dは、図5に示されるように、隣接する属性情報22同士のずれ、例えば、縦方向のずれや横方向のずれの大きさを判定し、近いお互いに近い属性情報22同士を、図8に示しように一つの文字列24として結合する。その結果、情報端末12の検索部12eは画像情報P上で、「February」という単語(文字)を含む文字列24を検索できるようになる。なお、画像情報結合部10dは、属性情報22を結合する場合、「February」等のように単語単位で統合してもよいし、「the head office」等のように熟語単位で統合してもよい。
第1出力部10e1は、抽出部10cが抽出した解析対象となった手書きされた文字を表した文字の画像を文字処理装置16に向けて出力する。また、第2出力部10e2は、画像情報結合部10dによって、文字列24として結合された属性情報22を含む画像情報P(透明テキストが埋め込まれた画像情報P)を情報端末12に向けて出力する。
文字処理装置16は、受付部16aが情報処理装置10から送信される画像を受け付けると、文字処理部16bは、周知の技術を用いた文字認識処理を実行するとともに、認識された文字をテキストデータに変換する。そして、結果送信部16cは、変換したテキストデータを情報処理装置10に向けて返送する。
このように、情報処理装置10は、解析対象と判定された画像のみを文字処理装置16に送信して、文字認識、テキストデータ変換を行わせるので、文字処理装置16における処理時間の短縮、文字処理装置16における処理コストの低減を行うことができる。つまり、情報処理装置10は迅速かつ低コストで、検索に適したテキストデータが埋め込まれた画像情報Pを情報端末12に返送することができる。
図8は、上述のように構成される情報処理システム100における処理シーケンスを説明する例示的かつ模式的な図である。
情報端末12は、当該情報端末12と情報処理装置10とが送受信部12dを介して有線または無線で接続された場合に、情報処理装置10がネット経由等で取得した画像情報Pや、情報処理装置10で作成された画像情報Pを画像情報受付部12a1で受け付け、逐次、記憶部12bに記憶する(S1a)。また、画像情報受付部12a1は、送受信部12dを介してネット経由で提供される画像情報Pを受け付けて記憶部12bに記憶してもよい(S1b)。
情報端末12は、情報処理装置10から通信が切り離された通常使用状態において、画像情報Pを表示部12cに表示し、ユーザに画像情報Pを視認させることができる。また、情報端末12の手書き画像受付部12a2は、表示部12c上にユーザにより描かれた文字等の手書き文字を画像(イメージデータ)として適宜受け付けることができる(S2)。手書き画像受付部12a2は、情報端末12上に表示されている画像情報Pと手書き文字が入力された位置(座標)とを対応付けて、記憶部12bに逐次記憶させる。
次に、情報端末12が手書き入力された文字画像のテキスト化のために情報処理装置10に接続された場合、情報処理装置10の取得部10aは、情報端末12に対して、画像情報Pの送信を要求する(S3)。情報端末12は、情報処理装置10の要求に対して、送受信部12dを介して、画像情報Pを送信する(S4)。この場合、送受信部12dは、記憶部12bに記憶されている画像情報Pの全てを送信対象としてもよいし、ユーザにより指定された画像情報Pを選択的に送信するようにしてもよい。
情報処理装置10は、情報端末12から画像情報Pを取得すると、取得した画像情報Pに対に含まれる文字画像が解析対象か否かを判定する判定処理の開始を指示する(S5)。この場合、判定部10bは、まず、第1段階処理として属性情報22に含まれる文字画像の表示態様に基づいて、当該文字画像をテキストデータに変換する解析対象とするか否かを判定する(S6)。続いて、判定部10bは、第2段階処理として、属性情報22に含まれる第1タイムスタンプと画像情報Pに埋め込まれた第2タイムスタンプとの比較に基づいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する(S7)。
判定部10bによって解析対象が判定され、抽出部10cによって解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像が抽出されると、第1出力部10e1は、その画像を文字処理装置16に送信する(S8)。
文字処理装置16の文字処理部16bは、情報処理装置10から送信された画像に対して文字認識処理およびテキストデータ化処理等の解析処理を実行し(S9)、結果送信部16cは、解析結果(テキストデータ)を情報処理装置10に返送する(S10)。
情報処理装置10では、文字処理装置16からテキストデータを取得すると、画像情報Pにおいて解析対象と判定された属性情報22の位置(座標)に対応するテキストデータ(透明テキスト)を埋め込むとともに、図7に示すようにテキストデータの結合処理を行い、文字列24とする(S11)。そして、第2出力部10e2は、テキストデータ(透明テキスト)が埋め込まれた画像情報Pを情報端末12に返送する(S12)。その結果、情報端末12では、手書き入力された文字画像を含む画像情報Pに対してテキストデータを用いた文字検索が可能となる。
図9は、情報処理装置10において、文字画像をテキストデータに変換する解析対象とするか否かを判定する処理の流れを説明する例示的なフローチャートである。
判定部10bは、取得部10aが取得した画像情報Pに含まれる一つの属性情報22から表示態様(例えば、使用された電子ペン12pのペン色)を取得する(S100)。取得した表示態様が、ユーザが検索対象の文字を手書きする場合に使用する色(例えば、赤色)の場合(S102のYes)、属性情報22に対応する座標の領域を画像に変換する(S104)。判定部10bは、取得部10aが取得した画像情報Pに含まれる全ての属性情報22がS100において取得(選択)済みか否か判定し(S106)、取得(選択)していない属性情報22が残っている場合(S106のNo)、S100に移行して、残っている属性情報22の取得を行いS102の判定処理を行う。また、S102において、判定部10bが取得した属性情報22の表示態様が、ユーザが検索対象の文字を手書きする場合に使用する色以外(例えば、青色)の場合(S102のNo)、S100に移行し、他の属性情報22の取得を行う。なお、S100〜S106の処理が、判定部10bにおいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する場合の第1段階処理(判定処理)に相当する。
判定部10bは、取得部10aが取得した画像情報Pに含まれる全ての属性情報22がS100において取得済みとなった場合(S106のYes)、第2タイムスタンプ取得部20aは、画像情報Pに第2タイムスタンプが埋め込まれているか確認する(S108)。画像情報Pに第2タイムスタンプが埋め込まれている場合(S108のYes)、第1タイムスタンプ取得部18cは、S104で画像に変換された領域に対応する属性情報22のいずれかの第1タイムスタンプを取得する(S110)。そして、比較部20において、第2タイムスタンプと第1タイムスタンプとの比較を行い(S112)、第2タイムスタンプより第1タイムスタンプが古い場合(S112のYes)、その第1タイムスタンプが埋め込まれた属性情報22に対応する画像を解析対象外フォルダに移動する(S114)。つまり、再度、この画像情報Pが取得部10aによって取得された場合、その属性情報22は、解析対象からはじめから除外して、判定処理が重複して行われることを回避する。
第1タイムスタンプ取得部18cは、S110において、S104で画像に変換された領域に対応する全ての属性情報22の第1タイムスタンプが取得済みになった場合(S116のYes)、取得部10aが取得した画像情報Pの第2タイムスタンプを現在の時刻で更新する(S118)。そして、判定部10bは、解析対象外ファイルに移動しなかった属性情報22に対応する画像を、今回の処理において、文字画像をテキストデータに変換する解析対象に決定するとともに、抽出部10cは、解析対象と判定された画像を抽出し(S120:抽出処理)、このフローを一旦終了する。
なお、S116において、S104で画像に変換された領域に対応する全ての属性情報22の第1タイムスタンプがまだ取得し終わっていない場合(S116のNo)、S110に移行し、S104で画像に変換された領域に対応する他の属性情報22の第1タイムスタンプを取得し、S112以降の処理を繰り返し実行する。また、S112において、第2タイムスタンプより第1タイムスタンプが古くない場合(S112のNo)、S110に移行し、S104で画像に変換された領域に対応する他の属性情報22の第1タイムスタンプを取得し、S112の処理を繰り返し実行する。
S108において、画像情報Pに第2タイムスタンプが埋め込まれていない場合(S108のNo)、取得部10aが取得した画像情報Pに対して、文字画像をテキストデータに変換する解析対象とするか否かを判定する処理を初めて実行していると見なせる。この場合、判定部10bは、画像情報Pに新規の第2タイムスタンプを埋め込み(S122)、S120の処理に移行する。つまり、判定部10bは、文字画像をテキストデータに変換する解析対象とするか否かの判定を第1段階処理によって決定する。なお、S110〜S118、S122の処理が、判定部10bにおいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する場合の第2段階処理(判定処理)に相当する。
このように、本実施形態の情報処理装置10によれば、文字画像をテキストデータに変換する解析対象とするか否かを判定し、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する。その結果、手書き入力された文字画像の解析を実行させる際に、処理時間の短縮、コストの軽減が可能なように、解析対象となる文字情報を決定することのできる情報処理装置を得ることができる。
また、情報処理装置10の判定部10bは、属性情報である、ユーザが手書き入力時に指定した文字画像の表示態様に基づいて解析対象か否かを判定する。その結果、解析対象の判定精度を容易に向上することができる。また、ユーザの希望する文字画像のみを解析対象とすることができるので、処理が容易になる。
また、情報処理装置10の判定部10bは、属性情報である、文字画像が画像情報に埋め込まれた時刻を示した第1のタイムスタンプに基づいて解析対象か否かを判定する。その結果、解析対象の判定精度を容易に向上することができる。
また、情報処理装置10の判定部10bは、属性情報22に埋め込まれた第1のタイムスタンプと、画像情報に埋め込まれた第2のタイムスタンプと、の比較に基づいて、解析対象か否かを判定する。その結果、解析対象が重複してしまうことを容易に回避し、テキストデータへの変換コストの削減に寄与できる。また、画像情報Pがアップデートされた部分(追記、修正された部分)のみを解析対象とすることができるので、処理効率を向上することができる。
また、情報処理装置10は、さらに、抽出した文字の画像を、手書きされた文字の画像をテキストデータに変換する文字処理装置に送信する出力部を備える。この場合、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像のみが文字処理装置に出力されるので、情報処理装置10と文字処理装置16との間で実行される処理時間の短縮に寄与することができる。
また、情報端末12と、情報処理装置10と、文字処理装置16と、を備える情報処理システム100によれば、情報処理装置10は、文字画像をテキストデータに変換する解析対象とするか否かを判定し、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する。その結果、情報処理装置10は、抽出した手書きされた文字を表した文字の画像のみを文字処理装置16に送信し、文字の解析を実行させて、その解析結果を画像情報Pに反映させることができる。したがって、情報端末12において、文字検索が可能な画像情報Pの取得を短所時間、低コストで実現し易くすることができる。
また、情報処理装置10による上述したような処理を実現する情報処理プログラムによれば、文字画像をテキストデータに変換する解析対象とするか否かを判定する判定処理および解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する抽出処理を、パーソナルコンピュータ上で容易に実現することができる。
なお、本実施形態の情報処理装置10のCPUで実行される情報処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、情報処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される情報処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…情報処理装置、10a…取得部、10b…判定部、10c…抽出部、10d…画像情報結合部、10e…出力部、10e1…第1出力部、10e2…第2出力部、12…情報端末、12a1…画像情報受付部、12a2…手書き画像受付部、12a…受付部、12b…記憶部、12c…表示部、12d…送受信部、12e…検索部、12p…電子ペン、16…文字処理装置、16a…受付部、16b…文字処理部、16c…結果送信部、18…属性取得部、18a…領域抽出部、18b…表示態様取得部、18c…第1タイムスタンプ取得部、20…比較部、20a…第2タイムスタンプ取得部、22…属性情報、24…文字列、100…情報処理システム。

Claims (7)

  1. 文字が手書きされた文字画像と、当該文字画像が表された表示領域に割り当てられた属性を示す属性情報と、を含む画像情報を取得する取得部と、
    前記属性情報に基づいて、前記文字画像をテキストデータに変換する解析対象とするか否かを判定する判定部と、
    前記解析対象と判定された前記文字画像に対応する表示領域から、手書きされた前記文字を表した前記文字の画像を抽出する抽出部と、
    を備える、情報処理装置。
  2. 前記判定部は、前記属性情報である、前記文字画像の表示態様に基づいて、前記解析対象か否かを判定する、請求項1に記載の情報処理装置。
  3. 前記判定部は、前記属性情報である、前記文字画像が前記画像情報に埋め込まれた時刻を示した第1のタイムスタンプに基づいて、前記解析対象か否かを判定する、請求項1または請求項2に記載の情報処理装置。
  4. 前記判定部は、前記第1のタイムスタンプと、前記画像情報に埋め込まれた、前記文字画像をテキストデータに変換する要求を行った時刻を示した第2のタイムスタンプと、の比較に基づいて、解析対象か否かを判定する、請求項3に記載の情報処理装置。
  5. さらに、抽出した前記文字の画像を、手書きされた文字の画像をテキストデータに変換する文字処理装置に送信する出力部を備える、請求項1から請求項4のいずれか1項に記載の情報処理装置。
  6. 情報端末と、情報処理装置と、文字処理装置と、を備えるシステムであって、
    前記情報端末は、
    手書き入力を受け付ける受付部と、
    手書き入力された文字を示した文字画像と、当該文字画像が表された表示領域に割り当てられた属性を示す属性情報と、を含む画像情報を送信する送信部と、
    前記画像情報を表示する表示部と、
    前記文字を検索する検索部と、
    を備え、
    前記情報処理装置は、
    前記画像情報を取得する取得部と、
    前記属性情報に基づいて、前記文字画像をテキストデータに変換する解析対象とするか否かを判定する判定部と、
    前記解析対象と判定された前記文字画像に対応する表示領域から、手書きされた前記文字を表した前記文字画像を抽出する抽出部と、
    前記抽出した前記文字画像を文字処理装置に送信する出力部と、
    を備え、
    前記文字処理装置は、
    前記情報処理装置から前記抽出した前記文字画像を受信する受信部と、
    前記文字画像をテキストデータに変換する文字処理部と、
    変換したテキストデータを前記情報処理装置に送信する送信部と、
    を備える、情報処理システム。
  7. 文字が手書きされた文字画像と、当該文字画像が表された表示領域に割り当てられた属性を示す属性情報と、を含む画像情報を取得する取得処理と、
    前記属性情報に基づいて、前記文字画像をテキストデータに変換する解析対象とするか否かを判定する判定処理と、
    前記解析対象と判定された前記文字画像に対応する表示領域から、手書きされた前記文字を表した前記文字の画像を抽出する抽出処理と、
    を、情報処理装置に実行させる、情報処理プログラム。
JP2020075747A 2020-04-21 2020-04-21 情報処理装置、情報処理システム、および情報処理プログラム Expired - Fee Related JP6764124B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020075747A JP6764124B1 (ja) 2020-04-21 2020-04-21 情報処理装置、情報処理システム、および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020075747A JP6764124B1 (ja) 2020-04-21 2020-04-21 情報処理装置、情報処理システム、および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP6764124B1 true JP6764124B1 (ja) 2020-09-30
JP2021174122A JP2021174122A (ja) 2021-11-01

Family

ID=72614690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020075747A Expired - Fee Related JP6764124B1 (ja) 2020-04-21 2020-04-21 情報処理装置、情報処理システム、および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP6764124B1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011683A (ja) * 2005-06-30 2007-01-18 Fuji Xerox Co Ltd 文書管理支援装置
JP2007317022A (ja) * 2006-05-26 2007-12-06 Canon Inc 手書文字処理装置及び手書文字処理方法
JP5395927B2 (ja) * 2012-05-11 2014-01-22 株式会社東芝 電子機器および手書き文書検索方法
JP6223687B2 (ja) * 2013-02-04 2017-11-01 株式会社東芝 電子機器および手書き文書検索方法
JP2015094978A (ja) * 2013-11-08 2015-05-18 株式会社東芝 電子機器および方法
JP2019117500A (ja) * 2017-12-27 2019-07-18 京セラドキュメントソリューションズ株式会社 情報処理装置

Also Published As

Publication number Publication date
JP2021174122A (ja) 2021-11-01

Similar Documents

Publication Publication Date Title
EP3024213B1 (en) Image scanning apparatus and method for controlling the same
US8201072B2 (en) Image forming apparatus, electronic mail delivery server, and information processing apparatus
CN103873719B (zh) 文档处理设备、图像处理装置和文档处理方法
EP0555027A2 (en) Information processing apparatus and method utilising useful additional information packet
KR101814120B1 (ko) 이미지를 전자문서에 삽입하는 방법 및 이를 수행하는 장치
CN103080980B (zh) 基于上下文向文档自动附加捕捉的图像
JP2002132547A (ja) 電子情報管理サーバ、電子情報管理クライアントおよび電子情報管理方法ならびに電子情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体
US20060232814A1 (en) Document management software, print control device, and document management method of print control device
JP2006146878A (ja) 電子文書管理プログラム、電子文書管理装置
CN101512570A (zh) 用于可移植数据聚集的方法和系统
CN104461409A (zh) 数据生成装置以及数据生成方法
US20030156479A1 (en) Information processing apparatus, file processing method, and computer-readable memory medium and program
US8719690B2 (en) Method and system for automatic data aggregation
JP2008052496A (ja) 画像表示装置、画像表示方法、プログラムおよび記録媒体
JP6764124B1 (ja) 情報処理装置、情報処理システム、および情報処理プログラム
KR101483611B1 (ko) 이미지에서 객체를 추출하기 위한 방법 및 단말기
JP2012008644A (ja) 縮小画像生成装置及びプログラム
CN103227807B (zh) 信息处理系统及方法、信息处理装置及方法、信息输出装置及方法
US11249704B2 (en) Display control device, display control method, and display system
EP2166467B1 (en) Information processing apparatus, control method thereof, computer program, and storage medium
JP6780380B2 (ja) 画像処理装置及びプログラム
JP2009176100A (ja) ファイル管理装置
JP2007267373A (ja) データ生成装置及び印刷装置
US9959249B2 (en) Information processing apparatus, document processing apparatus, information processing system, information processing method, and document processing method
US9326015B2 (en) Information processing apparatus, information processing system, information processing method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200522

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200608

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6764124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees