JP2020177355A - 情報処理装置およびプログラム - Google Patents

情報処理装置およびプログラム Download PDF

Info

Publication number
JP2020177355A
JP2020177355A JP2019077978A JP2019077978A JP2020177355A JP 2020177355 A JP2020177355 A JP 2020177355A JP 2019077978 A JP2019077978 A JP 2019077978A JP 2019077978 A JP2019077978 A JP 2019077978A JP 2020177355 A JP2020177355 A JP 2020177355A
Authority
JP
Japan
Prior art keywords
image
display control
object image
information processing
control means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019077978A
Other languages
English (en)
Other versions
JP7318289B2 (ja
Inventor
慶人 末澤
Yoshihito Suezawa
慶人 末澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2019077978A priority Critical patent/JP7318289B2/ja
Priority to US16/672,515 priority patent/US11380032B2/en
Priority to CN201911218274.7A priority patent/CN111831846A/zh
Publication of JP2020177355A publication Critical patent/JP2020177355A/ja
Application granted granted Critical
Publication of JP7318289B2 publication Critical patent/JP7318289B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/106Display of layout of documents; Previewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Input (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】第1の物体と、第1の物体に対応付けられて設置された第2の物体が記録された撮影画像の入力から、第2の物体を第1の物体に対して移動できる、または、第1の物体とは独立させて、第2の物体に編集を行うことが可能な画像を表示できるようにする。【解決手段】第1物体画像および第2物体画像の両者を表示する表示制御手段であって、当該第1物体画像に対する当該第2物体画像の移動が可能な状態又は、当該第2物体画像の編集が可能な状態で、当該第1物体画像および当該第2物体画像を表示する表示制御手段を備える情報処理装置。【選択図】図3

Description

本発明は、情報処理装置およびプログラムに関する。
特許文献1には、手書部分を含む文書媒体を電子化した画像データから、手書部分を抽出し、抽出された画像データの内容を、付箋情報として、画像データに付加する処理が開示されている。
特開2012−203491号公報
第1の物体と、第1の物体に対応付けられて設置された第2の物体とを撮影等することにより得られた撮影画像においては、第2の物体を第1の物体に対して移動させたり、第1の物体とは独立させて第2の物体に編集を行うことができない。
本発明の目的は、第1の物体と、第1の物体に対応付けられて設置された第2の物体が記録された撮影画像の入力から、第2の物体を第1の物体に対して移動できる、または、第1の物体とは独立させて、第2の物体に編集を行うことが可能な画像を表示できるようにすることにある。
請求項1に記載の発明は、第1の物体と、当該第1の物体に対応付けられて設置された第2の物体とがともに記録されている撮影画像の入力を受け付ける入力受付手段と、前記撮影画像から抽出された前記第1の物体の画像である第1物体画像を取得する第1画像取得手段と、前記撮影画像から抽出された前記第2の物体の画像である第2物体画像を取得する第2画像取得手段と、前記第1物体画像および前記第2物体画像の両者を表示する表示制御手段であって、当該第1物体画像に対する当該第2物体画像の移動が可能な状態又は、当該第2物体画像の編集が可能な状態で、当該第1物体画像および当該第2物体画像を表示する表示制御手段と、を備える情報処理装置である。
請求項2に記載の発明は、前記撮影画像から予め定められた第1の特徴を有する前記第1の物体を抽出し、かつ当該第1の特徴とは異なる予め定められた第2の特徴を有する前記第2の物体を抽出する抽出手段をさらに有する請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記表示制御手段は、前記撮影画像における前記第1の物体と前記第2の物体との位置関係が保たれた状態で、前記第1物体画像および前記第2物体画像を表示する請求項1に記載の情報処理装置である。
請求項4に記載の発明は、前記表示制御手段は、前記撮影画像における前記第1の物体の大きさと当該撮影画像における前記第2の物体の大きさとの比率が保たれた状態で、前記第1物体画像および前記第2物体画像を表示する請求項1に記載の情報処理装置である。
請求項5に記載の発明は、前記表示制御手段は、前記撮影画像にて前記第1の物体と前記第2の物体とが重なっている場合、前記第1物体画像と前記第2物体画像とを重ねて表示する請求項1に記載の情報処理装置である。
請求項6に記載の発明は、前記表示制御手段は、前記撮影画像にて前記第1の物体に対して前記第2の物体が上から付されている場合、前記第1物体画像と前記第2物体画像とを重ね且つ当該第1物体画像の上に当該第2物体画像が位置するように当該第1物体画像および第2物体画像を表示する請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記表示制御手段は、前記入力受付手段による前記撮影画像の受け付けによらず予め登録された前記第2の物体を表す登録画像の表示を行うことができ、前記表示制御手段は、前記第2物体画像を、前記登録画像と同じ形式で表示する請求項1に記載の情報処理装置である。
請求項8に記載の発明は、前記表示制御手段は、前記登録画像として、付箋を表す登録画像を表示でき、前記表示制御手段は、前記第2物体画像を、前記付箋を表す前記登録画像と同じ形式で表示する請求項7に記載の情報処理装置である。
請求項9に記載の発明は、前記表示制御手段は、前記第1物体画像と前記第2物体画像とを異なる形式で表示する請求項1に記載の情報処理装置である。
請求項10に記載の発明は、前記表示制御手段は、前記第2物体画像を前記登録画像と同じ形式で表示するにあたり、前記第2の物体の大きさ、色、および、形のうちの少なくとも1つを当該第2物体画像に反映して当該第2物体画像を表示する請求項7に記載の情報処理装置である。
請求項11に記載の発明は、前記表示制御手段は、前記第2物体画像を前記登録画像と同じ形式で表示するにあたり、前記第2の物体の上に文字の画像が存在する場合、当該文字の画像を、編集可能な文字情報として表示する請求項7に記載の情報処理装置である。
請求項12に記載の発明は、前記表示制御手段は、前記撮影画像が複数ページ分の画像により構成されている場合、各ページに対応した画像であるページ画像を複数表示するとともに、当該ページ画像の元となった一のページに前記第1の物体および前記第2の物体が存在する場合には、当該一のページに対応する一のページ画像に、前記第1物体画像および前記第2物体画像の両者を表示する請求項1に記載の情報処理装置である。
請求項13に記載の発明は、前記表示制御手段は、前記撮影画像が複数ページ分の画像により構成されている場合、各ページに対応した画像であるページ画像を複数表示するとともに、複数のページに亘って前記第2の物体が記録されている場合、複数表示する当該ページ画像のうちの特定の一のページ画像上に複数の前記第2物体画像を表示する請求項1に記載の情報処理装置である。
請求項14に記載の発明は、前記表示制御手段は、前記第1の物体と前記第2の物体とが重なり当該第1の物体の一部が当該第2の物体の背後に位置する場合、前記第1物体画像のうちの当該一部に対応する部分の画像を他の画像に変更する請求項1に記載の情報処理装置である。
請求項15に記載の発明は、前記表示制御手段は、前記一部に対応した部分の前記画像を、前記第1の物体の他の部分に対応した画像に変更する請求項14に記載の情報処理装置である。
請求項16に記載の発明は、前記表示制御手段は、前記一部に対応した部分の前記画像を、前記他の部分であって当該一部から予め定められた範囲内に位置する当該他の部分に対応した画像に変更する請求項15に記載の情報処理装置である。
請求項17に記載の発明は、前記表示制御手段は、前記第1の物体が印刷文書である場合、前記一部に対応した部分の前記画像を、当該印刷文書の元となった画像データの一部に基づく画像に変更する請求項14に記載の情報処理装置である。
請求項18に記載の発明は、前記表示制御手段は、前記第1の物体が印刷文書である場合、前記第1物体画像として、当該印刷文書の元となった画像データに基づく画像を表示する請求項1に記載の情報処理装置である。
請求項19に記載の発明は、第1の物体と、当該第1の物体に対応付けられて設置された第2の物体とがともに記録されている撮影画像の入力を受け付ける入力受付機能と、前記撮影画像から抽出された前記第1の物体の画像である第1物体画像を取得する第1画像取得機能と、前記撮影画像から抽出された前記第2の物体の画像である第2物体画像を取得する第2画像取得機能と、前記第1物体画像および前記第2物体画像の両者を表示する表示制御機能であって、当該第1物体画像に対する当該第2物体画像の移動が可能な状態又は、当該第2物体画像の編集が可能な状態で、当該第1物体画像および当該第2物体画像を表示する表示制御機能と、をコンピュータに実現させるためのプログラムである。
請求項1の発明によれば、第1の物体と、第1の物体に対応付けられて設置された第2の物体が記録された撮影画像の入力から、第2の物体を第1の物体に対して移動できる、または、第1の物体とは独立させて、第2の物体に編集を行うことが可能な画像を表示できるようにすることができる。
請求項2の発明によれば、撮影画像から予め定められた第1の特徴を有する第1の物体を抽出でき、第1の特徴とは異なる予め定められた第2の特徴を有する第2の物体を抽出できる。
請求項3の発明によれば、撮影画像における第1の物体と第2の物体との位置関係を、第1物体画像と第2物体画像で表現することができる。
請求項4の発明によれば、撮影画像における第1の物体と第2の物体との大きさの比率を、第1物体画像と第2物体画像で表現することができる。
請求項5の発明によれば、撮影画像における第1の物体に第2の物体が付された状態にあることを、第1物体画像と第2物体画像で表現することができる。
請求項6の発明によれば、撮影画像における第1の物体の上に第2の物体が付されている状態を、第1物体画像と第2物体画像で表現することができる。
請求項7の発明によれば、第2の物体画像に対して、登録画像に対する操作と同様の操作を実行することが可能となる。
請求項8の発明によれば、第2の物体画像に対して、付箋を表す登録画像に対する操作と同様の操作を実行することが可能となる。
請求項9の発明によれば、第1物体画像と第2物体画像の形式を区別して表示させることができる。
請求項10の発明によれば、第2物体画像に対応する登録画像を、第2の物体の大きさ、色、および、形のうちの少なくとも1つを反映させて表示することができる。
請求項11の発明によれば、第2物体画像に対応する登録画像で表示しつつ、文字を編集可能な状態で表示することができる。
請求項12の発明によれば、ページ画像に対応させて、第1物体画像と第2物体画像の両者を表示させることができる。
請求項13の発明によれば、特定の一のページに、第2物体画像をまとめて表示させることができる。
請求項14の発明によれば、第2の物体の背後に位置する第1の物体の画像を他の画像で表現することができる。
請求項15の発明によれば、第2の物体の背後に位置する第1の物体の画像を、第1の物体の他の部分に対応した画像で表現することができる。
請求項16の発明によれば、第2の物体の背後に位置する、第1の物体の画像の一部を、当該一部から予め定められた範囲内に位置する、他の部分に対応した画像で表現することができる。
請求項17の発明によれば、第2の物体の背後に位置する第1の物体の画像を、印刷文書の元となった画像データの一部で表現することができる。
請求項18の発明によれば、第2の物体の背後に位置する第1の物体の画像を、印刷文書の元となった画像データの一部で表現する場合と比べて、該当箇所の抽出処理を行わなくて良い。
請求項19の発明によれば、第1の物体と、第1の物体に対応付けられて設置された第2の物体が記録された撮影画像の入力から、第2の物体を第1の物体に対して移動できる、または、第1の物体とは独立させて、第2の物体に編集を行うことが可能な画像を表示できるようにすることができる。
情報処理装置の構成を説明する図である。 情報処理装置のハードウエアの構成を示した図である。 情報処理装置のCPU等により実現される機能部を示した図である。 入力受付部が受け付けた撮影画像の一例を示した図である。 撮影画像に関して情報処理装置が実行する処理の流れを示したフローチャートである。 撮影画像に関して情報処理装置が実行する処理の流れを示したフローチャートである。 撮影画像に関して情報処理装置が実行する処理を説明する図である。 (A)、(B)は、情報処理装置における表示処理を説明する図である。 第2物体画像の表示形態を示した図である。 表示処理が実行される際の処理の詳細を示したフローチャートである。 撮影画像に関する処理の他の一例を示した図である。 (A)、(B)は、撮影画像に関する処理の他の一例を示した図である。 情報処理装置における他の表示例を示した図である。 情報処理装置における他の表示例を示した図である。
以下、添付図面を参照して、本発明の実施の形態について説明する。
図1は、情報処理装置の構成を説明するである。
本実施形態の情報処理装置200は、図1に示すように、いわゆるスマートフォンやタブレット端末などの装置により構成されている。
なお、情報処理装置200は、スマートフォンやタブレット端末に限らず、ノート型のコンピュータ装置やデスクトップ型のコンピュータ装置などにより構成してもよい。
また、本実施形態では、以下で説明するように、操作者が行う操作を、タッチパネルにより構成された表示装置にて受け付けるが、マウスなどの情報入力機器にて、操作者の操作を受け付けるようにしてもよい。
図2は、情報処理装置200のハードウエアの構成を示した図である。
本実施形態の情報処理装置200には、CPU(Central Processing Unit)201、RAM(Random Access Memory)202、ROM(Read Only Memory)203が設けられている。また、フラッシュメモリなどにより構成される記憶装置204が設けられている。
また、情報処理装置200には、外部との通信を行うための通信インタフェース(通信I/F)205、情報を表示する表示装置206、撮影対象を撮影するカメラ208が設けられている。
表示装置206は、例えば、タッチパネル方式のディスプレイにより構成される。また、カメラ208は、例えば、CCDなどのイメージセンサにより構成される。
CPU201によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で、情報処理装置200へ提供しうる。
また、CPU201によって実行されるプログラムは、インターネットなどの通信手段を用いて情報処理装置200へダウンロードしてもよい。
図3は、情報処理装置200のCPU201等により実現される機能部を示した図である。なお、この図3では、後述する第1物体画像、第2物体画像の表示に関する機能部を表示している。
図3に示すように、情報処理装置200は、入力受付部210、第1画像情報取得部211、第2画像情報取得部212、表示制御部213、抽出部214、情報記憶部215を備える。
本実施形態では、ROM203や記憶装置204に格納されたプログラムをCPU201が実行することで、入力受付部210、第1画像情報取得部211、第2画像情報取得部212、表示制御部213、抽出部214の各機能部が実現される。また、情報記憶部215は、記憶装置204により実現される。
入力受付手段の一例としての入力受付部210は、カメラ208などにより得られた撮影画像の入力を受け付ける。
第1画像情報取得手段の一例としての第1画像情報取得部211は、撮影画像から抽出された第1の物体の画像である第1物体画像を取得する。
第2画像情報取得手段の一例としての第2画像情報取得部212は、撮影画像から抽出された第2の物体の画像である第2物体画像を取得する。
表示制御手段の一例としての表示制御部213は、表示装置206における表示の制御を行う。
抽出手段の一例としての抽出部214は、撮影画像から予め定められた特徴を有する物体の抽出を行う。
情報記憶部215は、撮影画像に関する情報などの記憶を行う。
図4は、入力受付部210が受け付けた撮影画像の一例を示した図である。
本実施形態では、入力受付部210が、カメラ208により得られた撮影画像70を取得する。言い換えると、本実施形態では、カメラ208により得られた撮影画像70が、入力受付部210へ入力され、入力受付部210が、撮影画像70のこの入力を受け付ける。
ここで、本実施形態では、カメラ208により得られた撮影画像70が、入力受付部210に入力される場合を一例に説明する。
ところで、これに限らず、情報処理装置200以外に設けられた撮影手段により得られた撮影画像70を、情報処理装置200へ送信して、撮影画像70が入力受付部210に入力されるようにしてもよい。
図4にて示す撮影画像70は、第1の物体71と、第1の物体71に対応付けられて設置された第2の物体72とがともに記録されている撮影画像70となっている。
より具体的には、この撮影画像70は、第1の物体71の一例である矩形状の文書と、第2の物体72の一例である矩形状の付箋とがともに記録されている撮影画像70となっている。本実施形態のこの撮影画像70では、付箋(第2の物体72)が複数記録されている。
なお、本実施形態では、第1の物体71として、文書を例示し、第2の物体72として、この文書よりも小さい付箋を例示するが、第1の物体71、第2の物体72は、これらに限られるものではない。
例えば、第1の物体71としては、商品などの立体物を一例に挙げることができ、第2の物体72としては、この立体物に付随して設置される物体を一例に挙げることができる。付随して設置されるこの物体としては、平面状の物体に限らず、立体物もあり得る。
また、以下では、第1の物体71と第2の物体72とが重なった状態の撮影画像70が入力受付部210に入力された場合の処理を一例に説明するが、第1の物体71と第2の物体72との間に重なりが生じていない撮影画像70であっても、以下の処理は行える。
図5、図6は、撮影画像70に関して情報処理装置200が実行する処理の流れを示したフローチャートである。また、図7は、撮影画像70に関して情報処理装置200が実行する処理を説明する図である。
本実施形態では、入力受付部210が撮影画像70の入力を受け付け、さらに、操作者が予め定められた操作を行うと、図5のステップS101に示すように、抽出部214が、撮影画像70に含まれる矩形形状の画像(以下、「矩形画像」)を抽出する。
具体的には、抽出部214は、撮影画像70の二値化処理、輪郭や角部の抽出処理などの公知の処理を行って、矩形画像を抽出する。
図7は、抽出部214により矩形画像が抽出された後の状態を示した図である。
本実施形態では、図7に示すように、抽出部214により、大きいサイズの矩形画像(符号7A参照)が抽出され、また、この大きいサイズよりも小さいサイズの矩形画像(符号7B参照)が抽出される。
なお、本実施形態では、操作者による手動の調整処理であって、抽出された上記の矩形画像の形状を変更するための調整処理を操作者から受け付けることができるようになっている。より具体的には、矩形画像の形状を変更するための操作者の操作を、表示装置206(タッチパネル)を介して受け付けることができるようになっている。
本実施形態では、この調整処理を受け付けた場合、図5に示すように、抽出された矩形画像の形状(輪郭)を変更する(ステップS102)。
次いで、本実施形態では、図5のステップS103に示すように、抽出部214が、撮影画像70から、予め定められた第1の特徴を有する第1の物体71を抽出する。
具体的には、抽出部214は、撮影画像70から、文書としての特徴を有する第1の物体71を抽出する。
より具体的には、抽出部214は、ステップS101にて抽出した複数の矩形画像の中から、予め定められた特徴を有する矩形画像を抽出し、抽出したこの矩形画像(以下、「第1抽出矩形画像」と称する)により表わされている物体を、文書としての特徴を有する第1の物体71として抽出する。
そして、本実施形態では、抽出部214が、文書としての特徴を有するこの第1の物体71を抽出すると、第1画像情報取得部211が、この第1の物体71を表している上記第1抽出矩形画像を、第1物体画像81(図7参照)として取得する。
次いで、第1画像情報取得部211は、図5に示すように、取得したこの第1物体画像81の透視射影を行う(ステップS104)。言い換えると、第1画像情報取得部211は、第1物体画像81が有する互いに対向する辺が、表示画面上にて互いに沿うように、第1物体画像81の変形を行う。
また、第1画像情報取得部211は、必要に応じ、取得したこの第1物体画像81の補正処理を行う(ステップS105)。
より具体的には、第1画像情報取得部211は、本実施形態の撮影画像70(図4参照)のように、第1の物体71の一部が第2の物体72の背後に位置しこの一部が隠れている場合、第1物体画像81の補正処理を行う。この補正処理の詳細は後述する。
次いで、本実施形態では、図5のステップS106に示すように、抽出部214が、撮影画像70から、予め定められた第2の特徴を有する第2の物体72を抽出する。
具体的には、抽出部214は、撮影画像70から、付箋としての特徴を有する第2の物体72を抽出する。
より具体的には、抽出部214は、ステップS101にて抽出した複数の矩形画像の中から、予め定められた特徴を有する矩形画像を抽出し、抽出したこの矩形画像(以下、「第2抽出矩形画像」と称する)により表わされている物体を、付箋としての特徴を有する第2の物体72として抽出する。
そして、本実施形態では、抽出部214が、付箋としての特徴を有するこの第2の物体72を抽出すると、第2画像情報取得部212が、この第2の物体72を表している上記の第2抽出矩形画像を、第2物体画像82(図7参照)として取得する。
次いで、第2画像情報取得部212は、図5に示すように、取得したこの第2物体画像82の各々の透視射影を行う(ステップS107)。言い換えると、上記と同様、第2画像情報取得部212は、第2物体画像82が有する互いに対向する辺が、表示画面上にて互いに沿うように、第2物体画像82の変形を行う。
その後、第2画像情報取得部212は、第2物体画像82の各々の位置情報を取得する(ステップS108)。言い換えると、第2画像情報取得部212は、第1物体画像81に対する第2物体画像82の位置についての情報を取得する。
より具体的には、第2画像情報取得部212は、例えば、第1物体画像81の左上の角部を原点として、複数存在する第2物体画像82の各々の位置についての情報を取得する。
ここで、本実施形態では、図4に示すように、第2の物体72の一例としての付箋は、第1の物体71の一例としての文書に接触し、また、この文書に付された状態となっている。
付言すると、第2の物体72の一例としての付箋は、第1の物体71の一例としての文書に接触し、また、接着によりこの文書に固定されている。
言い換えると、本実施形態の付箋は、この付箋よりも大きい文書の一部を構成し文書に属する物体となっている。
ここで、本実施形態では、上記のとおり、抽出部214により、撮影画像70から、文書としての特徴を有する第1の物体71が抽出される。また、抽出部214により、撮影画像70から、付箋としての特徴を有する第2の物体72が抽出される。
言い換えると、抽出部214により、撮影画像70から、文書である可能性が高い第1の物体71が抽出され、付箋である可能性が高い第2の物体72が抽出される。
ここで、抽出部214は、撮影画像70から、第1の物体71、第2の物体72を抽出するにあたり、例えば、撮影画像70における各物体の位置に基づき、第1の物体71、第2の物体72を抽出する。
具体的には、抽出部214は、例えば、撮影画像70から抽出した複数の上記の矩形画像(抽出要素)のうち、撮影画像70の中央部に位置しあるいは中央部に最も近い箇所に位置する矩形画像を、第1の物体71を表す矩形画像として抽出する。
そして、抽出部214は、抽出したこの矩形画像により表わされている物体を、第1の物体71として抽出する。
また、例えば、抽出部214は、撮影画像70から抽出した複数の矩形画像のうち、撮影画像70の中央部よりも、撮影画像70の縁部側に位置する他の矩形画像を、第2の物体72を表す矩形画像として抽出する。
そして、抽出部214は、抽出したこの矩形画像により表わされている物体を、第2の物体72として抽出する。
その他に、抽出部214は、例えば、撮影画像70における各矩形画像の大きさに基づき、第1の物体71、第2の物体72を抽出する。
具体的には、抽出部214は、例えば、撮影画像70から抽出した複数の矩形画像のうち、最も大きい矩形画像を、第1の物体71を表す矩形画像として抽出し、この矩形画像により表わされている物体を、第1の物体71として抽出する。
また、抽出部214は、例えば、撮影画像70から抽出した複数の矩形画像のうち、最も大きい矩形画像よりも小さい矩形画像を、第2の物体72を表す矩形画像として抽出し、この矩形画像により表わされている物体を、第2の物体72として抽出する。
また、抽出部214は、例えば、撮影画像70から抽出した複数の矩形画像のうち、撮影画像70の面積に占める面積の割合が予め定められた割合を超え且つ最も大きい矩形画像を、第1の物体71を表す矩形画像として抽出する。
そして、抽出部214は、この矩形画像により表わされている物体を、第1の物体71として抽出する。
また、抽出部214は、例えば、撮影画像70から抽出した複数の矩形画像のうち、上記の最も大きい矩形画像よりも小さい矩形画像であって撮影画像70の面積に占める面積の割合が予め定められた割合よりも小さい矩形画像を、第2の物体72を表す矩形画像として抽出する。
そして、抽出部214は、この矩形画像により表わされている物体を、第2の物体72として抽出する。
また、抽出部214は、例えば、撮影画像70における各矩形画像の色に基づき、第1の物体71、第2の物体72を抽出する。
具体的には、抽出部214は、例えば、撮影画像70に含まれる矩形画像のうち、白色の矩形画像を、第1の物体71を表す矩形画像として抽出し、この矩形画像により表わされている物体を、第1の物体71として抽出する。
また、抽出部214は、例えば、撮影画像70に含まれる矩形画像のうち、蛍光色の矩形画像を、第2の物体72を表す矩形画像として抽出し、この矩形画像により表わされている物体を、第2の物体72として抽出する。
言い換えると、本実施形態では、抽出部214は、例えば、撮影画像70に含まれる矩形画像のうち、文書である可能性が高い矩形画像を、第1の物体71を表す矩形画像として抽出する。そして、抽出部214は、抽出したこの矩形画像により表わされている物体を、第1の物体71として抽出する。
ここで、文書である可能性が高い矩形画像であるか否かは、例えば、矩形画像の位置、矩形画像の大きさ、矩形画像の色などの情報に基づき判断する。また、その他に、機械学習などを利用して、文書である可能性が高い矩形画像であるか否かの判断を行ってもよい。
また、本実施形態では、抽出部214は、例えば、撮影画像70に含まれる矩形画像のうち、付箋である可能性が高い矩形画像を、第2の物体72を表す矩形画像として抽出する。そして、抽出部214は、抽出したこの矩形画像により表わされている物体を、第2の物体72として抽出する。
ここで、付箋である可能性が高い矩形画像であるか否かは、上記と同様、矩形画像の位置、矩形画像の大きさ、矩形画像の色などの情報に基づき判断する。また、その他に、機械学習などを利用して、付箋である可能性が高い矩形画像であるか否かの判断を行ってもよい。
本実施形態では、抽出部214により、第1の物体71、第2の物体72が自動で抽出される。このため、本実施形態では、情報処理装置200を操作する操作者は、第1の物体71と第2の物体72の指定(抽出)を自身で行わないでよい。
付言すると、本実施形態では、操作者が表示装置206(タッチパネル)に対する操作を行わないでも(第1の物体71と第2の物体72の指定を行わないでも)、第1の物体71、第2の物体72が抽出される。
本実施形態では、抽出部214により抽出される物体が、予め定められており、抽出される条件を満たす物体が、第1の物体71、第2の物体72として抽出される。
その後、本実施形態では、図5のステップS109に示すように、第1画像情報取得部211が、第1物体画像81に対するOCR(Optical character recognition)処理を行い、第1物体画像81に含まれる文字情報(テキスト情報)を取得する。
また、第2画像情報取得部212が、第2物体画像82に対するOCR処理を行い、第2物体画像82に含まれる文字情報(テキスト情報)を取得する。
その後、上記のステップS101〜ステップS109における処理により得られた情報が、互いに対応付けられた状態で、情報記憶部215に記憶される(ステップS110)。
具体的には、第1物体画像81、第1物体画像81の属性情報(第1物体画像81により表されている物体が文書であることを示す情報などの第1物体画像81に関する情報)、第1物体画像81から得られた文字情報、第2物体画像82、第2物体画像82の属性情報(第2物体画像82により表されている物体が付箋であることを示す情報などの第2物体画像82に関する情報)、第2物体画像82から得られた文字情報、および、第2物体画像82の位置情報が、互いに対応付けられた状態で、情報記憶部215に記憶される。
なお、以下、本明細書では、互いに対応付けられた状態で情報記憶部215に記憶されたこれらの情報(1つの撮影画像70に関するこれらの情報)を、撮影画像対応情報と称する。
図6を参照し、撮影画像対応情報が取得された後の処理の流れを説明する。
ステップ201では、情報記憶部215に撮影画像対応情報が格納されているか否かの判断を行う。
そして、ステップS201にて、撮影画像対応情報が格納されていると判断された場合、ステップS202の処理に進み、撮影画像対応情報に含まれる第1物体画像81を取得する。
そして、この第1物体画像81のフォーマットを、特定のフォーマットに変換する(ステップS203)。より具体的には、第1物体画像81のフォーマットを、例えば、DocuWorks(登録商標)のフォーマットや、PDF(登録商標)のフォーマットに変換する。
そして、本実施形態では、撮影画像対応情報に、フォーマットを変換した後の第1物体画像81を追加する。
次いで、本実施形態では、撮影画像対応情報に含まれる第2物体画像82を取得する(ステップS204)。
そして、本実施形態では、第2物体画像82を解析して、この第2物体画像82の色の情報を取得する(ステップS205)。
次いで、本実施形態では、この色の情報を、撮影画像対応情報に追加する。より具体的には、第2物体画像82の属性情報に、この色の情報を含める。
その後、本実施形態では、表示制御部213により、第1物体画像81および第2物体画像82の表示処理が行われる。
図8(情報処理装置200における表示処理を説明する図)の(A)は、情報処理装置200の表示装置206に、第1物体画像81および第2物体画像82が表示された後の状態を示した図である。
図8(A)に示すように、表示制御部213は、表示装置206に、第1物体画像81および第2物体画像82を表示する。
また、表示制御部213は、表示装置206に、第1物体画像81および第2物体画像82を表示するにあたり、撮影画像70(図4参照)における第1の物体71と第2の物体72との位置関係が保たれた状態で、第1物体画像81および第2物体画像82を表示する。
より具体的には、表示制御部213は、第1物体画像81を表示するとともに、上記の位置情報により特定される位置に、第2物体画像82を表示する。
これにより、本実施形態では、撮影画像70における、第1の物体71と第2の物体72との位置関係が保たれた状態で、第1物体画像81および第2物体画像82が、表示装置206に表示される。
さらに、表示制御部213は、表示装置206に、第1物体画像81および第2物体画像82を表示するにあたり、撮影画像70(図4参照)における、第1の物体71の大きさと第2の物体72の大きさとの比率が保たれた状態で、第1物体画像81および第2物体画像82を表示する。
言い換えると、表示制御部213は、撮影画像70における、第1の物体71の大きさと第2の物体72の大きさとの比率と、表示装置206の表示画面における、第1物体画像81の大きさと第2物体画像82の大きさとの比率とが一致するように、第1物体画像81および第2物体画像82を表示する。
また、表示制御部213は、撮影画像70にて、第1の物体71と第2の物体72とが重なっている場合(図4参照)、図8(A)に示すように、表示装置206にて、第1物体画像81と第2物体画像82とを重ねて表示する。
付言すると、表示制御部213は、撮影画像70にて第1の物体71に対して第2の物体72が上から付されている場合、第1物体画像81と第2物体画像82とを重ね且つ第1物体画像81の上に第2物体画像82が位置するように、第1物体画像81および第2物体画像82を表示する。
ここで、「上」とは、撮影画像70を撮影する際の撮影者や、情報処理装置200を参照する操作者から見て手前側に位置する状態をいう。
表示制御部213は、撮影画像70にて、第1の物体71と第2の物体72とが重なり且つ第2の物体72が第1の物体71よりも手前側に位置する場合、表示装置206にて、第1物体画像81と第2物体画像82とを重ね、さらに、第2物体画像82を第1物体画像81よりも手前側に表示する。
さらに、本実施形態では、表示制御部213は、第2物体画像82を第1物体画像81と同じ形式で表示してもよいが、異なる形式で表示してもよい。その場合、第2物体画像82を、予め登録された第2登録画像を表示する際の形式と同じ形式で表示してもよい。
本実施形態では、付箋を表す登録画像である第2登録画像が、情報処理装置200に予め登録され、上記の第2物体画像82とは別に、この予め登録された第2登録画像の表示を行えるようになっている。たとえば、情報処理装置200には、DocuWorks(登録商標)のフォーマット(すなわちxdw形式)の画像に対して付加できる、付箋を表す登録画像が予め登録されている。表示制御部213は、xdw形式の画像に付加する態様で、アノテーションという予め登録された形式の、付箋を表す画像の表示を行える。
表示制御部213は、第2物体画像82を表示するにあたり、第2物体画像82を、この第2登録画像が表示される際の形式と同じ形式で表示してもよい。
本実施形態では、表示制御部213は、入力受付部210による撮影画像70の受け付けによらずに(入力受付部210による撮影画像70の受け付けが無くても)、表示装置206に、登録済みの第2登録画像の表示を行えるようになっている。
そして、本実施形態の表示制御部213は、第2物体画像82の表示に際し、そのままの形式で表示するのに限らず、第2登録画像を表示する際の表示形式と同じ形式で、この第2物体画像82の表示を行ってもよい。
ここで、「第2物体画像82を、第2登録画像と同じ形式で表示する」とは、操作者が第2登録画像に対して行える操作と同じ操作を、第2物体画像82に対しても行える状態で、第2物体画像82を表示することを指す。
言い換えると、「第2物体画像82を、第2登録画像と同じ形式で表示する」とは、操作者が第2登録画像に対して行える操作のうちの少なくとも1つ以上の操作を、第2物体画像82に対しても行える状態で、第2物体画像82を表示することを指す。
例えば、本実施形態では、付箋を表す第2登録画像に関し、操作者は、この第2登録画像の大きさ、色、形状、位置の変更を行える。
これに応じ、本実施形態では、第2物体画像82の大きさ、色、形状、位置の何れか1つ以上の変更を行えるように、第2物体画像82の表示を行えるようになっている。
また、本実施形態は、付箋を表す第2登録画像に関し、操作者は、第2登録画像に付された文字情報(テキスト情報)の編集を行える。
これに応じ、本実施形態では、第2物体画像82に付された文字情報(テキスト)の編集を行えるように、第2物体画像82の表示が行われる。
付言すると、第2登録画像では、この第2登録画像を構成する複数の要素の各々についての変更を行えるようになっている。
そして、本実施形態では、第2物体画像82においても、この複数の要素に含まれる要素の変更を行えるようになっている。言い換えると、第2物体画像82においても、第2登録画像にて変更可能な複数の要素のうちの少なくとも一つの要素の変更を行えるようになっている。
ここで、表示制御部213は、第2物体画像82を、第2登録画像と同じ形式で表示する場合、例えば、第2の物体72の大きさ、色、および、形のうちの少なくとも1つを、この第2物体画像82に反映して第2物体画像82を表示する。
また、表示制御部213は、第2物体画像82を第2登録画像と同じ形式で表示する際、この第2物体画像82に含まれる文字を、編集可能な文字情報として表示する。言い換えると、テキスト化された文字情報として表示する。
言い換えると、本実施形態では、第2物体画像82を表示する際、第2物体画像82の編集が可能な状態で、第1物体画像81および第2物体画像82の表示を行えるようになっている。
ここで、「編集が可能」とは、第2物体画像82の大きさ、色、形、第2物体画像82上に表示された文字など、第2物体画像82を構成する要素の変更が可能な状態を指す。
具体的には、本実施形態では、操作者は、情報処理装置200に対して予め定められた操作を行うことで(例えば、表示装置206に対する操作を行うことで)、第2物体画像82を構成する要素の変更を行える。
ここで、本実施形態では、例えば、図8(A)にて示した表示画面にて、操作者が、例えば、符号8Cで示す第2物体画像82を押圧すると、図8(B)で示す画面が表示される。
ユーザは、この図8(B)で示す画面に対する操作を行うことで、文字の編集を行える。具体的には、文字の削除や、文字の追加や、フォントの変更や、文字サイズの変更などを行える。
また、図示は省略するが、本実施形態では、操作者が、表示装置206に対する操作を行って、第2物体画像82の角部や辺などの輪郭を構成する要素を移動させると、第2物体画像82の大きさ、形などが変更される。
さらに、本実施形態では、操作者が、表示装置206に対して予め定められた操作(不図示)を行うと、第2物体画像82の色を指定するための画面が表示される。そして、この画面に対する操作を行うと、第2物体画像82の色が変更される。
なお、第1物体画像81についても編集が可能であってもよいが、第1物体画像81が第2物体画像82と異なる形式である場合、編集が可能な要素や程度にも違いがある。第1物体画像81は、編集可能な要素が第2物体画像82よりも少なくてもよい。たとえば、第1物体画像81については、文字の削除ができなくてもよいし、色の変更ができなくてもよい。
本実施形態では、さらに、第2登録画像と同じ形式で第2物体画像82を表示する表示態様と、第2物体画像82そのものを表示する表示形態との切り替えを行えるようになっている。
付言すると、本実施形態では、ユーザが、表示装置206に表示された切り替えボタン(不図示)の押圧など、予め定められた操作を行う。
これにより、本実施形態では、図9(第2物体画像82の表示形態を示した図)に示すように、第2登録画像と同じ形式で第2物体画像82を表示する第1表示形態と、第2物体画像82そのものを表示する第2表示態様との切り替えを行える。
ここで、第2物体画像82そのものを表示する第2表示形態では、OCR処理がなされる前の文字情報が表示されている。言い換えると、ユーザにより手書きで筆記された文字の画像(イメージとしての画像)が表示されている。
一方、第2登録画像と同じ形式で第2物体画像82を表示する第1表示態様では、テキスト化された文字が表示され、さらに、この文字の編集が可能な状態でこの文字が表示されている。
図10は、図8(B)にて説明した表示処理が実行される際の処理の詳細を示したフローチャートである。
本実施形態では、まず、第2物体画像82がユーザにより選択された否かを判断する(ステップS301)。そして、第2物体画像82が選択された場合は、ユーザによる、テキストモードの選択がなされた否かを判断する(ステップS302)。言い換えると、選択ボタン(不図示)の押圧などの、テキストモードの選択を行うための予め定められた操作が操作者により行われたか否かを判断する。
そして、ステップS302にて、テキストモードが選択されたと判断された場合は、テキストモードに変更する(ステップS303)。
その後、本実施形態では、操作者により第2物体画像82が再び選択されたか否かを判断し(ステップS304)、再び選択された場合には、図8(B)にて示したように、文字の編集を受け付けるための画面を表示する。
言い換えると、本実施形態では、操作者によって、予め定められた操作がなされたら、文字の編集を受け付けるための画面を表示する。
そして、ユーザによる編集があると、この編集を受け付ける(ステップS305)。そして、編集後の内容を、保存する(ステップS306)。より具体的には、編集後の内容を、上記の撮影画像対応情報に含めるようにする(反映するようにする)。
一方、ステップ302にて、テキストモードが選択されず、例えば、画像モードが選択された場合は、画像モードに変更される(ステップS307)。この画像モードでは、第2物体画像82そのものが表示される。
言い換えると、この画像モードでは、図9にて示した、第2表示形態で、第2物体画像82が表示される。この場合、ユーザによる手書きの筆記内容が表示される。
なお、本実施形態では、ステップS305にて、文字の編集がなされ文字情報の内容が変更された場合は、以後、画像モードへの変更を行えないようにする。
言い換えると、第2物体画像82そのものを表示する第2表示形態での、第2物体画像82の表示を行えないようにする。
これにより、テキストモードのときに表示される文字の内容と、画像モードのときに表示される文字の内容とが不一致となることが抑制される。
また、本実施形態では、表示制御部213は、第1物体画像81および第2物体画像82を表示するにあたり、第1物体画像81に対する第2物体画像82の移動が可能な状態で、第1物体画像81および第2物体画像82を表示する。
これにより、本実施形態では、操作者は、例えば、第2物体画像82のドラッグアンドドロップを行うことで、図8(A)の符号8Eで示すように、第2物体画像82の移動を行えるようになる。
付言すると、撮影画像70の状態では、第2物体の移動は行えないが、本実施形態では、上記の処理を行うことで、第2物体画像82の移動を行えるようになり、第1物体画像81に対する第2物体画像82の位置の変更を行える。
なお、本実施形態では、複数の第2物体画像82が表示されているが、この複数の第2物体画像82の各々は、個別に移動できるようになっている。
また、本実施形態では、第1物体画像81についても、第2物体画像82とは別に移動を行えるようになっている。
次に、図5のステップS105にて説明した、第1物体画像81の補正処理について説明する。
表示制御部213は、撮影画像70にて、第1の物体71と第2の物体72とが重なり、第1の物体71の一部が第2の物体72の背後に位置する場合(図4参照)、第1物体画像81のうちのこの一部に対応する部分の画像(図8(A)の符号8Xの斜線で示している画像)(以下、「対応画像8X」と称する)を変更する。
具体的には、表示制御部213は、例えば、この対応画像8Xを、第1物体画像81の他の部分の画像に変更する。
ここで、本実施形態では、上記のように、第2物体画像82の移動が行われることがあり、第2物体画像82の移動が行われると、第1物体画像81に欠けが生じてしまう。そこで、本実施形態では、この欠けが生じる箇所を、他の画像で補完する。
なお、第1物体画像81に含まれる上記の対応画像8Xを、第1物体画像81の他の部分の画像に変更する場合、この他の部分の画像は、この対応画像8Xから予め定められた範囲内に位置する画像とすることが好ましい。
言い換えると、第1物体画像81の対応画像8Xを、第1物体画像81の他の部分の画像の変更する場合は、この対応画像8Xを、この対応画像8Xから予め定められた距離内に位置する他の画像に変更することが好ましい。
言い換えると、対応画像8Xを、この対応画像8Xの近くに位置し、置換しても、違和感が生じにくい他の画像に置換することが好ましい。
また、表示制御部213は、第1物体画像81が印刷文書を撮影した画像である場合、上記の対応画像8Xを、この印刷文書の元となった画像データの一部に基づく画像に変更してもよい。
付言すると、第1物体画像81が印刷文書を撮影した画像である場合、上記の対応画像8Xを、この印刷文書の元となった画像データに基づく画像のうちの、この対応画像8Xに対応する箇所に位置する画像に変更してもよい。
なお、印刷文書の元となった画像データの取得は、例えば、この印刷文書を撮影した画像である第1物体画像81を解析して、例えば、印刷文書に付されているコード画像などの識別情報を取得する。
そして、この識別情報を元に、データベース等を検索して、印刷文書の元となった画像データを特定して取得する。そして、表示制御部213は、上記の対応画像8Xを、取得したこの画像データの一部に基づく画像に変更する。
なお、印刷文書の元となった画像データの取得は、例えば、機械学習などを利用して、この印刷文書に近似した画像を有する画像データをデータベース等から抽出することで、この画像データの取得を行ってもよい。
また、上記では、第1物体画像81の表示にあたり、第1物体画像81そのものを表示し、あるいは、第1登録画像を表示する際の形式で第1物体画像81を表示する場合を説明した。
ところで、これに限らず、例えば、上記のように、印刷文書の元となった画像データを取得し、第1物体画像81として、この画像データに基づく画像を表示してもよい。
言い換えると、表示制御部213は、第1物体画像81が印刷文書を撮影した画像である場合、この第1物体画像81に替えて、この印刷文書の元となった画像データに基づく画像を表示してもよい。
(その他)
表示制御部213は、図11(撮影画像に関する処理の他の一例を示した図)の符号11Aに示すように、撮影画像70が複数ページ分の画像により構成されている場合、符号11Bに示すように、表示装置206に、各ページに対応した画像であるページ画像を複数表示する。
また、表示制御部213は、ページ画像の元となる一のページに第1の物体71および第2の物体72が存在する場合(符号11C参照)には、符号11Dで示すように、この一のページに対応するページ画像に、第1物体画像81および第2物体画像82の両者を表示する。
図12(A)、(B)は、撮影画像に関する処理の他の一例を示した図である。
また、その他に、表示制御部213は、図12(A)に示すように、撮影画像70が複数ページ分の画像により構成され、さらに、複数のページに亘って第2の物体72が記録されている場合、図12(B)に示すように、複数のページ画像のうちの特定の一のページ画像上に、複数の第2物体画像82を表示するようにしてもよい。
言い換えると、表示制御部213は、撮影画像70が複数ページ分の画像により構成され、表示装置206に、各ページに対応した画像であるページ画像を複数表示するにあたり、特定の一のページ画像上に、複数の第2物体画像82をまとめて表示してもよい。
より具体的には、図12(B)に示すこの例では、先頭のページに、複数の第2物体画像82をまとめて表示している。
ここで、撮影画像70では、図12(A)に示すように、複数のページに亘って第2の物体72が記録されている場合があり得る。
この場合、上記のように、特定の一のページ画像上に、複数の第2物体画像82をまとめて表示すると、操作者は、第2物体画像82の全ての参照をより短い時間で行える。
また、上記では、第1物体画像81および第2物体画像82を、共通の画面に表示したが、第1物体画像81および第2物体画像82の各々を、図13(情報処理装置における他の表示例を示した図)に示すように、個別に且つ互いに異なる画面に表示するようにしてもよい。
図13に示す表示形態では、操作者が、予め定められた操作を行うことで、画面が切り替わり、表示される物体画像が切り替わる。具体的には、この表示形態では、操作者が、いわゆるスワイプ操作を表示画面に対して行うことで、表示される物体画像が切り替わる。
また、上記では、第2物体画像82が、第1物体画像81の上に載った状態で、第1物体画像81および第2物体画像82が表示される場合を示した。
ところで、これに限らず、例えば、図14(情報処理装置における他の表示例を示した図)に示すように、第1物体画像81の表示箇所とは異なる箇所に、第2物体画像82を表示してもよい。
図14では、第1物体画像81の表示箇所の下方に、第2物体画像82が表示される表示形態となっている。
さらに、この表示形態では、操作者が、予め定められた操作を行うことで、表示される第2物体画像82が切り替わるようになる。
具体的には、この表示形態では、操作者が、いわゆるスワイプ操作を表示画面に対して行うと、第2物体画像82が横方向へスライド移動し、表示される第2物体画像82が切り替わる。
(その他)
上記では、第1物体画像81、第2物体画像82の表示にあたり、第1物体画像81、第2物体画像82そのもの、あるいは、第1物体画像81、第2物体画像82を、第1登録画像、第2登録画像と同じ形式で表示する場合を一例に説明した。
ところで、これに限られず、第1物体画像81、第2物体画像82の表示にあたり、第1物体画像81、第2物体画像82に替えて、第1登録画像、第2登録画像を表示するようにしてもよい。
なお、この場合は、第1物体画像81の特徴の少なくとも一部、第2物体画像82の特徴の少なくとも一部を、第1登録画像、第2登録画像に反映する。
具体的には、この場合、例えば、第1物体画像81、第2物体画像82の色、形状、サイズなどの複数の要素のうちの何れか1つ以上の要素を、第1登録画像、第2登録画像に反映する。
また、第1物体画像81、第2物体画像82に替えて、第1登録画像、第2登録画像を表示するにあたり、第1物体画像81、第2物体画像82に、文字の画像が存在する場合には、この文字の画像を、第1登録画像上、第2登録画像上に表示してもよい。
また、上記では、第1物体画像81、第2物体画像82の双方において、物体画像そのものでの表示、登録画像と同じ形式での物体画像の表示、物体画像を登録画像に置換しての表示を、行える場合を説明した。
但し、これに限らず、第1物体画像81、第2物体画像82の一方のみについて、これらの表示態様の何れかで表示が行われるようにし、他方については、これらの表示態様の数よりも少ない数の表示態様での表示が行われるようにしてもよい。
具体的には、例えば、第1物体画像81については、第1物体画像81そのものだけが表示されるようにし、第2物体画像82については、例えば、第2物体画像そのものでの表示、登録画像と同じ形式での表示、登録画像に置換しての表示の何れもが可能なようにしてもよい。
70…撮影画像、71…第1の物体、72…第2の物体、200…情報処理装置、210…入力受付部、211…第1画像情報取得部、212…第2画像情報取得部、213…表示制御部

Claims (19)

  1. 第1の物体と、当該第1の物体に対応付けられて設置された第2の物体とがともに記録されている撮影画像の入力を受け付ける入力受付手段と、
    前記撮影画像から抽出された前記第1の物体の画像である第1物体画像を取得する第1画像取得手段と、
    前記撮影画像から抽出された前記第2の物体の画像である第2物体画像を取得する第2画像取得手段と、
    前記第1物体画像および前記第2物体画像の両者を表示する表示制御手段であって、当該第1物体画像に対する当該第2物体画像の移動が可能な状態又は、当該第2物体画像の編集が可能な状態で、当該第1物体画像および当該第2物体画像を表示する表示制御手段と、
    を備える情報処理装置。
  2. 前記撮影画像から予め定められた第1の特徴を有する前記第1の物体を抽出し、かつ当該第1の特徴とは異なる予め定められた第2の特徴を有する前記第2の物体を抽出する抽出手段をさらに有する請求項1に記載の情報処理装置。
  3. 前記表示制御手段は、前記撮影画像における前記第1の物体と前記第2の物体との位置関係が保たれた状態で、前記第1物体画像および前記第2物体画像を表示する請求項1に記載の情報処理装置。
  4. 前記表示制御手段は、前記撮影画像における前記第1の物体の大きさと当該撮影画像における前記第2の物体の大きさとの比率が保たれた状態で、前記第1物体画像および前記第2物体画像を表示する請求項1に記載の情報処理装置。
  5. 前記表示制御手段は、前記撮影画像にて前記第1の物体と前記第2の物体とが重なっている場合、前記第1物体画像と前記第2物体画像とを重ねて表示する請求項1に記載の情報処理装置。
  6. 前記表示制御手段は、前記撮影画像にて前記第1の物体に対して前記第2の物体が上から付されている場合、前記第1物体画像と前記第2物体画像とを重ね且つ当該第1物体画像の上に当該第2物体画像が位置するように当該第1物体画像および第2物体画像を表示する請求項1に記載の情報処理装置。
  7. 前記表示制御手段は、前記入力受付手段による前記撮影画像の受け付けによらず予め登録された前記第2の物体を表す登録画像の表示を行うことができ、
    前記表示制御手段は、前記第2物体画像を、前記登録画像と同じ形式で表示する請求項1に記載の情報処理装置。
  8. 前記表示制御手段は、前記登録画像として、付箋を表す登録画像を表示でき、
    前記表示制御手段は、前記第2物体画像を、前記付箋を表す前記登録画像と同じ形式で表示する請求項7に記載の情報処理装置。
  9. 前記表示制御手段は、前記第1物体画像と前記第2物体画像とを異なる形式で表示する請求項1に記載の情報処理装置。
  10. 前記表示制御手段は、前記第2物体画像を前記登録画像と同じ形式で表示するにあたり、前記第2の物体の大きさ、色、および、形のうちの少なくとも1つを当該第2物体画像に反映して当該第2物体画像を表示する請求項7に記載の情報処理装置。
  11. 前記表示制御手段は、前記第2物体画像を前記登録画像と同じ形式で表示するにあたり、前記第2の物体の上に文字の画像が存在する場合、当該文字の画像を、編集可能な文字情報として表示する請求項7に記載の情報処理装置。
  12. 前記表示制御手段は、前記撮影画像が複数ページ分の画像により構成されている場合、各ページに対応した画像であるページ画像を複数表示するとともに、当該ページ画像の元となった一のページに前記第1の物体および前記第2の物体が存在する場合には、当該一のページに対応する一のページ画像に、前記第1物体画像および前記第2物体画像の両者を表示する請求項1に記載の情報処理装置。
  13. 前記表示制御手段は、前記撮影画像が複数ページ分の画像により構成されている場合、各ページに対応した画像であるページ画像を複数表示するとともに、複数のページに亘って前記第2の物体が記録されている場合、複数表示する当該ページ画像のうちの特定の一のページ画像上に複数の前記第2物体画像を表示する請求項1に記載の情報処理装置。
  14. 前記表示制御手段は、前記第1の物体と前記第2の物体とが重なり当該第1の物体の一部が当該第2の物体の背後に位置する場合、前記第1物体画像のうちの当該一部に対応する部分の画像を他の画像に変更する請求項1に記載の情報処理装置。
  15. 前記表示制御手段は、前記一部に対応した部分の前記画像を、前記第1の物体の他の部分に対応した画像に変更する請求項14に記載の情報処理装置。
  16. 前記表示制御手段は、前記一部に対応した部分の前記画像を、前記他の部分であって当該一部から予め定められた範囲内に位置する当該他の部分に対応した画像に変更する請求項15に記載の情報処理装置。
  17. 前記表示制御手段は、前記第1の物体が印刷文書である場合、前記一部に対応した部分の前記画像を、当該印刷文書の元となった画像データの一部に基づく画像に変更する請求項14に記載の情報処理装置。
  18. 前記表示制御手段は、前記第1の物体が印刷文書である場合、前記第1物体画像として、当該印刷文書の元となった画像データに基づく画像を表示する請求項1に記載の情報処理装置。
  19. 第1の物体と、当該第1の物体に対応付けられて設置された第2の物体とがともに記録されている撮影画像の入力を受け付ける入力受付機能と、
    前記撮影画像から抽出された前記第1の物体の画像である第1物体画像を取得する第1画像取得機能と、
    前記撮影画像から抽出された前記第2の物体の画像である第2物体画像を取得する第2画像取得機能と、
    前記第1物体画像および前記第2物体画像の両者を表示する表示制御機能であって、当該第1物体画像に対する当該第2物体画像の移動が可能な状態又は、当該第2物体画像の編集が可能な状態で、当該第1物体画像および当該第2物体画像を表示する表示制御機能と、
    をコンピュータに実現させるためのプログラム。
JP2019077978A 2019-04-16 2019-04-16 情報処理装置およびプログラム Active JP7318289B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019077978A JP7318289B2 (ja) 2019-04-16 2019-04-16 情報処理装置およびプログラム
US16/672,515 US11380032B2 (en) 2019-04-16 2019-11-03 Image information processing apparatus, method and non-transitory computer readable medium storing program
CN201911218274.7A CN111831846A (zh) 2019-04-16 2019-12-03 信息处理装置、记录媒体及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077978A JP7318289B2 (ja) 2019-04-16 2019-04-16 情報処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2020177355A true JP2020177355A (ja) 2020-10-29
JP7318289B2 JP7318289B2 (ja) 2023-08-01

Family

ID=72832687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077978A Active JP7318289B2 (ja) 2019-04-16 2019-04-16 情報処理装置およびプログラム

Country Status (3)

Country Link
US (1) US11380032B2 (ja)
JP (1) JP7318289B2 (ja)
CN (1) CN111831846A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11936531B2 (en) * 2021-12-30 2024-03-19 Atlassian Pty Ltd. Transforming content in a document using chained applications in a client-server architecture

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222394A (ja) * 1999-02-03 2000-08-11 Nec Corp 文書管理装置及びその文書管理方法並びにその制御プログラムを記録した記録媒体
JP2007004621A (ja) * 2005-06-24 2007-01-11 Fuji Xerox Co Ltd 文書管理支援装置、文書管理支援方法およびプログラム
JP2010224698A (ja) * 2009-03-19 2010-10-07 Pfu Ltd 画像編集装置、仮想バインダー生成システム、画像編集方法、及びプログラム
JP2014120805A (ja) * 2012-12-13 2014-06-30 Canon Inc 情報処理装置、情報処理方法、およびプログラム
WO2014122794A1 (ja) * 2013-02-07 2014-08-14 株式会社 東芝 電子機器および手書き文書処理方法
JP2015106718A (ja) * 2013-11-28 2015-06-08 京セラドキュメントソリューションズ株式会社 原稿読取装置及び画像形成装置
JP2015159427A (ja) * 2014-02-24 2015-09-03 株式会社リコー 画像読取装置、画像読取装置の制御方法及び制御プログラム
JP2017017455A (ja) * 2015-06-30 2017-01-19 ブラザー工業株式会社 画像処理装置およびコンピュータプログラム
JP2019016288A (ja) * 2017-07-10 2019-01-31 富士ゼロックス株式会社 情報処理装置、情報処理システムおよびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004001315A (ja) * 2002-05-31 2004-01-08 Ricoh Co Ltd 情報処理装置、情報処理方法、及び情報処理プログラム
US8117556B2 (en) * 2008-03-31 2012-02-14 Vistaprint Technologies Limited Target-alignment-and-drop control for editing electronic documents
JP2012203491A (ja) 2011-03-24 2012-10-22 Fuji Xerox Co Ltd 文書処理装置及び文書処理プログラム
US9147275B1 (en) * 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9678617B2 (en) * 2013-01-14 2017-06-13 Patrick Soon-Shiong Shared real-time content editing activated by an image
US10410321B2 (en) * 2014-01-07 2019-09-10 MN Netherlands C.V. Dynamic updating of a composite image
JP6742850B2 (ja) * 2016-07-29 2020-08-19 キヤノン株式会社 レイアウト編集装置、レイアウト編集方法、およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222394A (ja) * 1999-02-03 2000-08-11 Nec Corp 文書管理装置及びその文書管理方法並びにその制御プログラムを記録した記録媒体
JP2007004621A (ja) * 2005-06-24 2007-01-11 Fuji Xerox Co Ltd 文書管理支援装置、文書管理支援方法およびプログラム
JP2010224698A (ja) * 2009-03-19 2010-10-07 Pfu Ltd 画像編集装置、仮想バインダー生成システム、画像編集方法、及びプログラム
JP2014120805A (ja) * 2012-12-13 2014-06-30 Canon Inc 情報処理装置、情報処理方法、およびプログラム
WO2014122794A1 (ja) * 2013-02-07 2014-08-14 株式会社 東芝 電子機器および手書き文書処理方法
JP2015106718A (ja) * 2013-11-28 2015-06-08 京セラドキュメントソリューションズ株式会社 原稿読取装置及び画像形成装置
JP2015159427A (ja) * 2014-02-24 2015-09-03 株式会社リコー 画像読取装置、画像読取装置の制御方法及び制御プログラム
JP2017017455A (ja) * 2015-06-30 2017-01-19 ブラザー工業株式会社 画像処理装置およびコンピュータプログラム
JP2019016288A (ja) * 2017-07-10 2019-01-31 富士ゼロックス株式会社 情報処理装置、情報処理システムおよびプログラム

Also Published As

Publication number Publication date
US11380032B2 (en) 2022-07-05
CN111831846A (zh) 2020-10-27
US20200334879A1 (en) 2020-10-22
JP7318289B2 (ja) 2023-08-01

Similar Documents

Publication Publication Date Title
US10545656B2 (en) Information processing apparatus and display controlling method for displaying an item in a display area in response to movement
CN107979709B (zh) 图像处理装置、系统、控制方法和计算机可读介质
US8509564B2 (en) Graphic arrangement deciding method, recording medium and information processing apparatus
US20110157215A1 (en) Image output device, image output system and image output method
US20110050956A1 (en) Imaging apparatus, method therefor, and storage medium
US10084936B2 (en) Display system including an image forming apparatus and a display apparatus
KR102090973B1 (ko) 정보 처리장치, 정보 처리방법, 및 기억매체
JP6723966B2 (ja) 情報処理装置、表示制御方法、及びプログラム
US8526741B2 (en) Apparatus and method for processing image
JP2010074405A (ja) 画像処理装置および画像処理方法
US20160300321A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
US9767588B2 (en) Method and apparatus for image processing
CN107085699B (zh) 信息处理设备、信息处理设备的控制方法和存储介质
JP6723938B2 (ja) 情報処理装置、表示制御方法、及びプログラム
US11436733B2 (en) Image processing apparatus, image processing method and storage medium
JP2020177355A (ja) 情報処理装置およびプログラム
JP2017199288A (ja) 画像処理装置、画像処理方法及びプログラム
US9986111B2 (en) Medium storing programs executable by terminal apparatus and terminal apparatus
CN115050038A (zh) 信息处理装置、信息处理方法和存储介质
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
US11588945B2 (en) Data input support apparatus that displays a window with an item value display area, an overview image display area, and an enlarged image display area
JP6639257B2 (ja) 情報処理装置及びその制御方法
JP2007241370A (ja) 携帯装置及び撮像装置
CN114363521B (zh) 图像处理方法、装置及电子设备
CN118135581A (zh) 客户端终端、客户端终端的控制方法和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7318289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150