JP2020038531A - 文書作成支援装置、文書作成支援システム、及びプログラム - Google Patents

文書作成支援装置、文書作成支援システム、及びプログラム Download PDF

Info

Publication number
JP2020038531A
JP2020038531A JP2018165818A JP2018165818A JP2020038531A JP 2020038531 A JP2020038531 A JP 2020038531A JP 2018165818 A JP2018165818 A JP 2018165818A JP 2018165818 A JP2018165818 A JP 2018165818A JP 2020038531 A JP2020038531 A JP 2020038531A
Authority
JP
Japan
Prior art keywords
information
user
report
screen
document creation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018165818A
Other languages
English (en)
Inventor
茂木 学
Manabu Mogi
学 茂木
阿希子 林
Akiko Hayashi
阿希子 林
駿介 高宮
Shunsuke Takamiya
駿介 高宮
松井 龍也
Tatsuya Matsui
龍也 松井
幸博 中村
Yukihiro Nakamura
幸博 中村
佐久間 聡
Satoshi Sakuma
聡 佐久間
木下 真吾
Shingo Kinoshita
真吾 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018165818A priority Critical patent/JP2020038531A/ja
Priority to PCT/JP2019/032971 priority patent/WO2020050055A1/ja
Publication of JP2020038531A publication Critical patent/JP2020038531A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/908Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】利用者の時間や手間を要することなく、付加価値の高い報告書を作成することが可能な文書作成支援装置を提供する。【解決手段】文書作成支援装置110は、対象物の特定情報に基づいて、前記対象物の認識結果情報を取得する認識結果情報取得部112と、利用者の操作に応じた前記対象物の編集情報を取得する編集情報取得部114と、前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を取得する関連情報取得部113と、前記関連情報を含む画面情報に基づいて、前記対象物に関する報告書を表示する表示部117と、を備える。【選択図】図2

Description

本発明は、文書作成支援装置、文書作成支援システム、及びプログラムに関する。
近年、イベントで展示される展示物に関する報告書、保守作業の対象となる機器に関する報告書などを、スマートフォンやタブレットPC(personal computer)などのスマートデバイスで作成する機運が高まってきている。スマートデバイスは、テキスト入力のみならず、撮影や音声入力が可能であるため、スマートデバイスを利用して、対象物(例えば、展示物、機器、など)に関する報告書を作成することで、利用者にとって利便性の向上が図られている。
例えば、特許文献1には、画像情報、音声情報、テキスト情報、などのマルチモーダル情報が互いに対応付けされた報告書を、表示或いは印刷することが可能な報告書作成装置が開示されている。
特開2000−259750号公報
しかしながら、従来の技術では、利用者がカメラで撮影した画像情報や音声入力した音声情報などに基づいて報告書を作成することはできるものの、当該情報以外の情報を付加して、報告書を作成することは困難であった。従って、付加価値の高い報告書を作成するためには、利用者の時間や手間を要してしまうという問題があった。
かかる事情に鑑みてなされた本発明の目的は、利用者の時間や手間を要することなく、付加価値の高い報告書を作成することが可能な文書作成支援装置、文書作成支援システム、及びプログラムを提供することにある。
上記課題を解決するため、本発明に係る文書作成支援装置は、対象物の特定情報に基づいて、前記対象物の認識結果情報を取得する認識結果情報取得部と、利用者の操作に応じた前記対象物の編集情報を取得する編集情報取得部と、前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を取得する関連情報取得部と、前記関連情報を含む画面情報に基づいて、前記対象物に関する報告書を表示する表示部と、を備えることを特徴とする。
また、上記課題を解決するため、本発明に係る文書作成支援システムは、対象物の特定情報に基づいて、前記対象物の認識結果情報を決定する認識エンジンと、前記認識結果情報と利用者の操作に応じた前記対象物の編集情報とを関連付けて蓄積し、前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を抽出するデータベースサーバと、前記関連情報を含む画面情報を生成する現場情報サーバと、前記画面情報に基づいて、前記対象物に関する報告書を表示する利用者端末と、を備えることを特徴とする。
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記要約文表示装置として機能させることを特徴とする。
本発明によれば、利用者の時間や手間を要することなく、付加価値の高い報告書を作成することが可能となる。
本発明の一実施形態に係る文書作成支援システムの構成の一例を示すブロック図である。 本発明の一実施形態に係る文書作成支援装置の構成の一例を示すブロック図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援方法の一例を示すフローチャートである。 本発明の一実施形態に係る文書作成支援方法の一例を示すフローチャートである。
以下、本発明の一実施形態について、図面を参照して詳細に説明する。
<文書作成支援システム100の構成>
図1を参照して、本実施形態に係る文書作成支援システム100について説明する。図1は、本実施形態に係る文書作成支援システム100の構成の一例を示す図である。
図1に示すように、文書作成支援システム100は、利用者端末(文書作成支援装置)110と、現場情報サーバ120と、DBサーバ(データベースサーバ)130と、認識サーバ140と、認識エンジン150と、を備える。利用者端末110は、ネットワーク50を介して、現場情報サーバ120或いは認識サーバ140と通信する。
利用者端末110は、利用者が保持する携帯端末であり、例えば、スマートフォンやタブレットPCなどのスマートデバイスである。利用者は、利用者端末110を利用して、例えば、イベントで展示される展示物、保守作業の対象となる機器、など対象物に関する各種の報告書を作成する。なお、本実施形態では、報告書が、利用者端末110の表示部に表示される場合を一例に挙げて説明するが、報告書は利用者端末110の表示部に表示された後、紙などに印刷されてもよい。
利用者端末110は、各種のセンサから対象物の特定情報を取得し、当該特定情報を、ネットワーク50を介して、認識サーバ140へと送信する。対象物の特定情報とは、対象物を特定するための情報であり、例えば、画像情報、音声情報、位置情報、などである。センサは、その種類が特に限定されるものではなく、例えば、カメラ、マイク、ビーコンセンサ、などである。センサは、利用者端末110に搭載されていてもよいし、対象物に設けられていてもよい。
利用者端末110は、対象物の特定情報に基づいて、対象物の認識結果情報を、ネットワーク50を介して、認識サーバ140から受信し、一時的に保存する。対象物の認識結果情報とは、例えば、対象物ごとに設定される対象物の認識結果IDである。
利用者端末110は、利用者の操作に応じた対象物の編集情報を取得し、当該編集情報を、ネットワーク50を介して、現場情報サーバ120へと送信する。対象物の編集情報とは、利用者の編集操作に応じて編集される対象物の情報であり、例えば、利用者の追加撮影操作に応じた対象物の追加画像情報、利用者のコメント入力操作に応じた対象物のコメント情報、利用者のタグ選択操作に応じた対象物のタグ情報、或いは、利用者の音声録音操作に応じた対象物の音声メモ情報、などである、
利用者端末110は、対象物の認識結果情報及び対象物の編集情報に基づいて、対象物の関連情報を、ネットワーク50を介して、現場情報サーバ120から受信する。対象物の関連情報とは、対象物の特定情報や対象物の編集情報以外の情報であり、報告書の付加価値を高める情報である。例えば、対象物の統計情報、作成済みの報告書に関する情報、などが挙げられる。
利用者端末110は、対象物の特定情報、対象物の編集情報、及び対象物の関連情報を含む画面情報を、ネットワーク50を介して、現場情報サーバ120から受信し、当該画面情報に基づいて、対象物に関する報告書を表示する。対象物に関する報告書には、例えば、対象物の特定情報に基づいて、具体的には対象物の画像が、対象物の編集情報に基づいて、具体的には対象物の追加画像や音声メモが、対象物の関連情報に基づいて、具体的には対象物の概要や利用シーンが、表示される(図6参照)。
現場情報サーバ120は、対象物の認識結果情報、対象物の編集情報、などを、ネットワーク50を介して、利用者端末110から受信し、当該認識結果情報、当該編集情報、などを、DBサーバ130へと送信する。また、現場情報サーバ120は、対象物の認識結果情報に対応する対象物の関連情報を、DBサーバ130から受信し、対象物の特定情報、対象物の編集情報、及び対象物の関連情報を含む画面情報を生成し、当該画面情報を、ネットワーク50を介して、利用者端末110へと送信する。例えば、現場情報サーバ120は、対象物の画像情報や対象物の音声メモ情報以外に、対象物の概要や利用シーンを示す情報を含む画面情報を生成する。
DBサーバ130は、対象物の認識結果情報、対象物の編集情報、などを、現場情報サーバ120から受信し、対象物の認識結果情報と対象物の編集情報とを関連付けて蓄積する。また、DBサーバ130は、対象物の認識結果情報、対象物の編集情報、などに基づいて、対象物の認識結果情報に対応する対象物の関連情報を抽出する。また、DBサーバ130は、当該関連情報を、現場情報サーバ120へと送信する。
例えば、DBサーバ130は、対象物の認識結果IDと、対象物の追加画像情報、対象物のテキストコメント情報或いは対象物の音声コメント情報、対象物のタグ情報、対象物の音声メモ情報、などの情報とを関連付けて蓄積する。
DBサーバ130は、対象物の編集情報に基づいて、対象物に関連するキーワードを抽出し、対象物の統計情報として蓄積する。例えば、DBサーバ130は、対象物のテキストコメント情報或いは対象物の音声コメント情報、対象物のタグ情報、対象物の音声メモ情報、などに対してテキスト変換処理を行い、更に、形態素解析処理を行って、対象物に関連するキーワードを抽出し、対象物の統計情報として蓄積する。
DBサーバ130は、対象物の認識結果情報と利用者(他利用者)の属性情報とを関連付けて、対象物の統計情報として蓄積する。なお、利用者(他利用者)の属性情報は、利用者(他利用者)端末IDなどに基づいて、各端末と関連付けられて、蓄積される。
例えば、DBサーバ130は、対象物の認識結果IDと、利用者の業種情報、利用者の職種情報、利用者の職位情報、などの情報とを関連付けて、利用者の属性ごとにランキングされた対象物のタイトル名を示す情報を、対象物の統計情報として蓄積する。
DBサーバ130は、上述した対象物の統計情報、対象物に関連するキーワード、利用者の属性情報、他利用者の属性情報、などを保持する。
認識サーバ140は、対象物の特定情報を、ネットワーク50を介して、利用者端末110から受信し、当該特定情報を、認識エンジン150へと送信する。また、認識サーバ140は、対象物の認識結果情報を、認識エンジン150から受信し、当該認識結果情報を、ネットワーク50を介して、利用者端末110へと送信する。
認識エンジン150は、対象物の特定情報を、認識サーバ140から受信し、当該特定情報と予め登録されている対象物の特定情報とを比較して、対象物の認識結果情報を決定し、当該認識結果情報を、認識サーバ140へと送信する。認識エンジン150には、所定の対象物の特定情報、所定の対象物の認識結果、などが予め登録されている。
本実施形態に係る文書作成支援システム100によれば、認識エンジン150が対象物の特定情報に基づいて対象物の認識結果情報を決定し、DBサーバ130が当該認識結果情報及び利用者の操作に応じた対象物の編集情報に基づいて対象物の関連情報を抽出し、現場情報サーバ120が対象物の関連情報を含む画面情報を生成し、利用者端末110が当該画面情報を受信する。これにより、対象物の特定情報及び利用者の操作に応じた対象物の編集情報以外の情報(対象物の関連情報)を付加した報告書を作成することができるため、利用者の時間や手間を要することなく、付加価値の高い報告書を作成することが可能な文書作成支援システム100を実現できる。
<利用者端末110の構成>
図2を参照して、本実施形態に係る利用者端末110について詳細に説明する。図2は、本実施形態に係る利用者端末110の構成の一例を示す図である。
図2に示すように、利用者端末110は、特定情報取得部111、認識結果情報取得部112と、関連情報取得部113、編集情報取得部114、制御部115、記憶部116、表示部117、操作部118、などを備える。
特定情報取得部111は、各種のセンサから対象物の特定情報を取得する。例えば、特定情報取得部111は、利用者端末110に搭載されるカメラから対象物の画像情報を取得する。例えば、特定情報取得部111は、利用者端末110に搭載されるマイクから対象物の音声情報を取得する。例えば、特定情報取得部111は、対象物に設けられるビーコンセンサから対象物の位置情報を取得する。
認識結果情報取得部112は、対象物の特定情報に基づいて、対象物の認識結果情報を取得する。例えば、利用者端末110は、対象物の画像情報、対象物の音声情報、対象物の位置情報などに基づいて、対象物の認識結果IDを取得する。
関連情報取得部113は、対象物の認識結果情報及び対象物の編集情報に基づいて、対象物の関連情報を取得する。例えば、関連情報取得部113は、対象物の認識結果ID(対象物の認識結果情報)、及び、対象物の追加画像情報、対象物のテキストコメント情報或いは対象物の音声コメント情報、対象物のタグ情報、対象物の音声メモ情報などの情報(対象物の編集情報)に基づいて、対象物の概要や利用シーンを示す情報(対象物の関連情報)を取得する。
編集情報取得部114は、利用者の操作に応じた対象物の編集情報を取得する。例えば、編集情報取得部114は、利用者の追加撮影操作に応じた対象物の追加画像情報を取得する。例えば、編集情報取得部114は、利用者のコメント入力操作に応じた対象物のテキストコメント情報或いは対象物の音声コメント情報を取得する。例えば、編集情報取得部114は、利用者のタグ選択操作に応じた対象物のタグ情報を取得する。例えば、編集情報取得部114は、利用者の音声メモ録音操作に応じた対象物の音声メモ情報を取得する。
制御部115は、認識結果情報取得部112と、関連情報取得部113、編集情報取得部114、などを介して、利用者端末110と現場情報サーバ120或いは認識サーバ140との間で送受信される情報を制御する。また、制御部115は、例えば、CPU、メモリ等を含み、利用者端末110の各部を制御する。
制御部115は、対象物の特定情報、対象物の編集情報、及び対象物の関連情報を互いに関連付け、所定のデザインフォーマットを適用して、対象物の特定情報、対象物の編集情報、及び対象物の関連情報を含む画面情報を整形する。
制御部115は、各種の情報を、表示部117へと出力し、所定の画面を、表示部117に表示させる。例えば、制御部115は、所定のデザインフォーマットにより整形した画面情報を、表示部117へと出力し、対象物に関する報告書を、表示部117に表示させる。また、制御部115は、表示部117に表示させる画面の言語(例えば、日本語、英語、など)を適宜設定する。
制御部115は、利用者のデザイン変更操作に応じて、報告書のデザインを変更する。報告書のデザインは、任意のデザインとすることができ、例えば、タウン雑誌風のデザイン、カルチャー雑誌風のデザイン、スポーツ新聞紙風のデザイン、などが挙げられる。また、制御部115は、利用者の表紙画像変更操作に応じて、報告書の表紙画像を変更する。なお、報告書に適用される各種のデザイン、報告書の表紙に適用される各種の画像、などは、予め記憶部116に記憶されている。
記憶部116は、例えば、ハードディスクなどの情報を記憶する機能を有するものであればよい。記憶部116は、例えば、対象物の認識結果情報、報告書に適用される各種のデザイン、報告書の表紙に適用される各種の画像、各種のプログラムやデータ、などを記憶する。
表示部117は、画像や文字などの表示が可能であればどのようなデバイスでもよく、例えば、液晶ディスプレイ、有機EL(Electro−Luminescence)ディスプレイ、などである。
表示部117は、制御部115から入力される各種の情報に基づいて、所定の画面を、表示する。例えば、表示部117は、制御部115によって整形された画面情報に基づいて、対象物に関する報告書を表示する。なお、報告書は、その表示形態が、特に限定されるものではなく、例えば、複数の報告書が同じ画面に一括で表示される表示形態であってもよいし、複数の報告書の内容がランキング形式或いはグクラウド形式で表示される表示形態であってもよい。
表示部117は、報告書の他、例えば、後述する利用者の属性設定画面(図3参照)、利用者がカメラを起動させるための起動画面(図4(A)参照)、利用者が対象物を撮影するための撮影画面(図4(B)参照)、利用者の報告書確認画面(図4(C)参照)、他利用者の報告書一覧確認画面(図4(D)参照)、報告書入力フォーム画面(図5(A)参照)、コメント入力フォーム画面(図5(B)参照)、利用者が編集操作を行った後の報告書完成画面(図6参照)、報告書表紙画面(図7参照)、などを表示する。
操作部118は、利用者による各種の操作が可能であればどのようなデバイスでもよく、例えば、タッチパネル、ソフトウェアキーボード、などである。利用者は、操作部118を用いて、あらゆる操作を行うことで、対象物に関する報告書を任意に作成することができる。
本実施形態に係る利用者端末110によれば、各種センサから対象物の特定情報を取得することを契機として、対象物の認識結果情報を取得し、利用者の操作に応じた対象物の編集情報を取得し、これらの情報に基づいて、対象物の関連情報を取得することで、対象物の特定情報、対象物の編集情報、対象物の関連情報、などを関連付けて報告書として表示することができる。これにより、対象物の特定情報及び利用者の操作に応じた対象物の編集情報以外の情報を付加した報告書を作成することができるため、利用者の時間や手間を要することなく、付加価値の高い報告書を作成することが可能な利用者端末110を実現できる。
<表示部の表示画面>
図3乃至図10を参照して、本実施形態に係る利用者端末110における表示部117の表示画面の一例について説明する。利用者が報告書を作成する際、表示部117には、種々の画面が表示される。
図3は、利用者の属性設定画面210の一例を示す図である。
利用者の属性設定画面210は、例えば、業種ボタン211、職種ボタン212、役職ボタン213、完了ボタン214、などを含む。業種ボタン211は、例えば、ソフトウェア関係、ハードウェア関係、システムインテグレータ、通信事業、など、利用者が自身の業種を設定するボタンである。職種ボタン212は、例えば、企画、技術、営業、事務、など、利用者が自身の職種を設定するボタンである。役職ボタン213は、例えば、経営者、役員、部長、課長、など、利用者が自身の役職を設定するボタンである。完了ボタン214は、利用者属性設定を完了するボタンである。
利用者が、利用者端末110を起動させると、表示部117には、利用者の属性設定画面210が表示される。利用者が、業種ボタン211、職種ボタン212、役職ボタン213を、それぞれタップして、自身の業種、自身の職種、自身の役職を選択し、完了ボタン214をタップすると、利用者端末110において、利用者の属性が設定される。
図4(A)は、利用者がカメラを起動させるための起動画面220の一例を示す図である。図4(B)は、利用者が対象物を撮影するための撮影画面230の一例を示す図である。図4(C)は、利用者の報告書確認画面240の一例を示す図である。図4(D)は、他利用者の報告書一覧確認画面250の一例を示す図である。
起動画面220は、例えば、カメラ起動のための操作エリア221、利用者の報告書閲覧アイコン222、他利用者の報告書閲覧アイコン223、他メニューボタン224、などを含む。撮影画面230は、例えば、プレビュー画面231、シャッターボタン232などを含む。利用者の報告書確認画面240は、例えば、報告書表示画面241、デザイン変更ボタン242、表紙画像変更ボタン243、他者共有ボタン244、などを含む。他利用者の報告書一覧確認画面250は、他利用者の報告書表紙サムネイル251、他利用者の報告書作成日時252、他利用者の属性253、などを含む。
利用者が、起動画面220において、カメラ起動のための操作エリア221をタップすると、表示部117には、撮影画面230が表示される。利用者が、撮影画面230において、プレビュー画面231を見ながら、対象物に利用者端末110の向きを合わせて、シャッターボタン232をタップすると、対象物が撮影される。
利用者が、起動画面220において、利用者の報告書閲覧アイコン222をタップすると、表示部117には、利用者の報告書確認画面240が表示される。例えば、利用者は、利用者の報告書確認画面240内の報告書表示画面241において、自身が作成した報告書を確認することができる。例えば、利用者は、デザイン変更ボタン242をタップして、報告書の各ページにおけるデザインを変更することができる。例えば、利用者は、表紙画像変更ボタン243をタップして、報告書の表紙における表紙画像を変更することができる。例えば、利用者は、他者共有ボタン244をタップして、自身が作成した報告書を他利用者に共有させることができる。
利用者が、起動画面220において、他利用者の報告書閲覧アイコン223をタップすると、表示部117には、他利用者の報告書一覧確認画面250が表示される。報告書一覧確認画面250には、他利用者の報告書表紙サムネイル、他利用者の報告書作成日時、他利用者の業種、他利用者の職種、他利用者の役職、などが一覧で表示される。このため、利用者は、他利用者の報告書一覧確認画面250において、複数の他利用者の報告書を一覧で確認することができる。
更に、利用者が、他利用者の報告書一覧確認画面250内の特定の他利用者の報告書表紙サムネイル251をタップすると、表示部117には、他利用者の報告書確認画面が表示される。利用者が、他利用者の報告書確認画面において、他者共有ボタン244をタップすると、他利用者は、他利用者の報告書一覧確認画面250を介して、利用者が作成した報告書を閲覧することができる。
図5(A)は、利用者が編集操作を行うための報告書入力フォーム画面260の一例を示す図である。図5(B)は、利用者がコメント入力操作を行うためのコメント入力フォーム画面270の一例を示す図である。
報告書入力フォーム画面260は、例えば、録音開始ボタン261、コメント入力ボタン262、タグ選択ボタン263、完了ボタン264、表示欄265、表示領域266、追加撮影ボタン267、などを含む。コメント入力フォーム画面270は、例えば、コメント編集欄271、音声入力ボタン272、OKボタン273、などを含む。
報告書入力フォーム画面260において、録音開始ボタン261、コメント入力ボタン262、タグ選択ボタン263、完了ボタン264、表示欄265、表示領域266、追加撮影ボタン267、などは、利用者端末110によって設定された言語で表示される。また、コメント入力フォーム画面270において、コメント編集欄271、音声入力ボタン272、OKボタン273、などは、利用者端末110によって設定された言語で表示される。
利用者は、報告書入力フォーム画面260内の表示欄265において、例えば、対象物の関連情報に基づいて、対象物のカテゴリ名や対象物のタイトル名などを確認することができる。また、利用者は、報告書入力フォーム画面260内の表示領域266において、例えば、対象物の特定情報に基づいて、対象物の画像を、対象物の編集情報に基づいて、対象物に関連する被写体の追加画像を確認することができる。
利用者が、報告書入力フォーム画面260において、追加撮影ボタン267をタップすると、表示部117には、撮影画面230が表示される。利用者が、撮影画面230において、プレビュー画面231を見ながら、対象物に関連する被写体に利用者端末110の向きを合わせて、シャッターボタン232をタップすると、対象物に関連する被写体が撮影される。
利用者が、報告書入力フォーム画面260において、タグ選択ボタン263をタップすると、所定のタグが報告書に追加される。タグは、利用者端末110において予め設定されていてもよいし、利用者が利用者端末110を用いて新たに設定してもよい。
利用者が、報告書入力フォーム画面260において、録音開始ボタン261をタップすると、録音が開始され、所定時間音声メモを録音すると、音声メモが報告書に追加される。
利用者が、報告書入力フォーム画面260において、コメント入力ボタン262をタップすると、表示部117には、コメント入力フォーム画面270が表示される。利用者が、操作部118を用いて、コメント編集欄271に、テキストコメントを入力し、OKボタン273をタップすると、テキストコメントが報告書に追加される。更に、利用者が、コメント入力フォーム画面270において、音声入力ボタン272をタップして、音声コメントを入力し、OKボタン273をタップすると、音声コメントが報告書に追加される。
図6は、利用者が編集操作を行った後の報告書完成画面280の一例を示す図である。
報告書完成画面280には、対象物の関連情報に基づいて、具体的には、対象物のカテゴリ名、対象物のタイトル名、対象物の概要、対象物の利用シーン(281)などが、対象物の特定情報に基づいて、具体的には、対象物の画像(282)などが、対象物の編集情報に基づいて、具体的には、対象物の音声メモ(283)、対象物のテキストコメント(284)、対象物のタグ(285)、対象物に関連する被写体の画像(286)、などが利用者端末110によって設定された言語で表示される。
利用者が、報告書完成画面280において、音声再生ボタン283をタップすると、音声メモが再生される。また、利用者が、レポートを見るボタン286をタップすると、表示部117には、利用者の報告書確認画面240が表示され、利用者が作成した報告書を確認すると、表示部117には、再び、起動画面220が表示される。
図7は、報告書の表紙画面310の一例を示す図である。報告書の表紙画面310には、利用者が、複数のデザインの中から選択したデザインが表示される。例えば、利用者が、報告書確認画面240において、デザイン変更ボタン242をタップして、報告書の表紙デザインを、カルチャー雑誌風に変更すると、報告書の表紙画面310には、カルチャー雑誌風の表紙画面が表示される。
図8は、報告書画面320の一例を示す図である。利用者が、報告書完成画面280において、レポートを見るボタン286をタップすると、表示部117には、複数の報告書が配列された報告書画面320が表示される。利用者は、報告書画面320において、複数の報告書を一度に確認することができる。
図9は、報告書画面330の一例を示す図である。利用者が、報告書完成画面280において、レポートを見るボタン286をタップすると、表示部117には、利用者の業種ごとに、対象物のカテゴリ名がランキング形式でまとめられた報告書画面330が表示される。利用者は、報告書画面330において、利用者の業種ごとに、利用者の業種と対象物のカテゴリ名との関係を確認することができる。
図10は、報告書画面340の一例を示す図である。利用者が、報告書完成画面280において、レポートを見るボタン286をタップすると、表示部117には、対象物のカテゴリ名ごとに、対象物のタグがタグクラウド形式でまとめられた報告書画面340が表示される。利用者は、報告書画面340において、対象物のカテゴリ名ごとに、対象物との関連が強いタグと対象物との関連が弱いタグとをそれぞれ確認することができる。
<文書作成支援方法>
図11及び図12を参照して、本実施形態に係る文書作成支援システム100における文書作成支援方法について説明する。図11は、本実施形態に係る文書作成支援システム100における文書作成支援方法の一例を示すフローチャートであり、利用者が撮影操作を行ってから、利用者端末110の表示部117が報告書入力フォーム画面260を表示するまでの処理を示している。図12は、本実施形態に係る文書作成支援システム100における文書作成支援方法の一例を示すフローチャートであり、利用者が編集操作を行ってから、利用者端末110の表示部117が報告書完成画面280を表示するまでの処理を示している。
まず、図11を参照して、利用者が撮影操作を行ってから、利用者端末110の表示部117が報告書入力フォーム画面260を表示するまでの処理の一例について説明する。
ステップS1において、利用者は、起動画面220において、カメラ起動のための操作エリア221をタップする。利用者端末110に表示される画面は、起動画面220から撮影画面230へと遷移する。利用者は、撮影画面230において、プレビュー画面231を見ながら、対象物に利用者端末110の向きを合わせて、シャッターボタン232をタップする。
ステップS2において、利用者端末110は、対象物を撮影し、対象物の画像データを保持する。なお、ステップS1からステップS2までの処理は、利用者が対象物を撮影するごとに、繰り返し行われる。
ステップS3において、利用者端末110は、対象物の画像データを、ネットワーク50を介して、認識サーバ140へと送信する。
ステップS4において、認識サーバ140は、利用者端末110から受信した対象物の画像データを、認識エンジン150へと送信する。
ステップS5において、認識エンジン150は、認識サーバ140から受信した対象物の画像データと予め登録されている対象物の画像データとを比較する。そして、認識エンジン150は、対象物の画像データに基づいて、対象物の認識結果IDを決定する。
ステップS6において、認識エンジン150は、対象物の認識結果IDを、認識サーバ140へと送信する。
ステップS7において、認識サーバ140は、認識エンジン150から受信した対象物の認識結果IDを、ネットワーク50を介して、利用者端末110へと送信する。
ステップS8において、利用者端末110は、認識サーバ140から受信した対象物の認識結果IDを、一時的に保持する。
ステップS9において、利用者端末110は、対象物の認識結果ID及び言語設定データを、ネットワーク50を介して、現場情報サーバ120へと送信する。言語設定データは、利用者端末110によって設定される。
ステップS10において、現場情報サーバ120は、利用者端末110から受信した対象物の認識結果ID及び言語設定データを、DBサーバ130へと送信する。
ステップS11において、DBサーバ130は、現場情報サーバ120から受信した対象物の認識結果ID及び言語設定データに基づいて、対象物の関連情報を抽出する。対象物の関連情報は、利用者端末110によって設定される所定の言語に対応している。
ステップS12において、DBサーバ130は、対象物の認識結果ID及び言語設定データに対応する対象物の関連情報を、現場情報サーバ120へと送信する。
ステップS13において、現場情報サーバ120は、DBサーバ130から受信した対象物の関連情報を含む報告書入力フォーム情報を生成する。報告書入力フォーム情報は、利用者端末110によって設定される所定の言語に対応している。
ステップS14において、現場情報サーバ120は、報告書入力フォーム情報を、ネットワーク50を介して、利用者端末110へと送信する。
ステップS15において、利用者端末110は、報告書入力フォーム情報に基づいて、表示部117に、報告書入力フォーム画面260を表示する。
例えば、利用者端末110によって設定される言語が英語である場合、利用者が日本語表記された対象物(例えば、展示パネルなど)を撮影しても、報告書入力フォーム画面260には、英語表記された対象物の画像が表示される。例えば、利用者端末110によって設定される言語が日本語である場合、利用者が英語表記された対象物(例えば、展示パネルなど)を撮影しても、報告書入力フォーム画面260には、日本語表記された対象物の画像が表示される。
次に、図12を参照して、利用者が編集操作を行ってから、利用者端末110の表示部117が報告書完成画面280を表示するまでの処理の一例について説明する。
ステップS1001において、利用者は、報告書入力フォーム画面260において、追加撮影ボタン267をタップする。利用者端末110に表示される画面は、報告書入力フォーム画面260から撮影画面230へと遷移する。利用者は、撮影画面230において、プレビュー画面231を見ながら、対象物に関連して追加で撮影したい被写体に利用者端末110の向きを合わせて、シャッターボタン232をタップする。
ステップS1002において、利用者端末110は、当該被写体を撮影し、対象物に関連する被写体の画像データを保持する。ステップS1001からステップS1002までの処理は、利用者が対象物に関連する被写体を撮影するごとに、繰り返し行われる。なお、報告書入力フォーム画面260には、対象物の画像の他、対象物に関連する被写体の画像を複数表示させることが可能である。
ステップS1003において、利用者は、報告書入力フォーム画面260において、コメント入力ボタン262をタップする。利用者端末110に表示される画面は、報告書入力フォーム画面260からコメント入力フォーム画面270へと遷移する。利用者は、操作部118を介して、コメント編集欄271に、対象物のテキストコメントを入力する。或いは、利用者は、音声入力ボタン272をタップして、対象物の音声コメントを入力する。なお、対象物のテキストコメントの内容及び対象物の音声コメントの内容は、利用者が任意に決定することが可能である。
ステップS1004において、利用者端末110は、対象物のテキストコメント、或いは、対象物の音声コメントを保持する。ステップS1003からステップS1004までの処理は、利用者が対象物のコメントを入力するごとに、繰り返し行われる。
ステップS1005において、利用者は、報告書入力フォーム画面260において、所定のタグ選択ボタン263をタップする。例えば、対象物のタグが「すごい」である場合、利用者は、「すごい」のタグ選択ボタン263をタップする。例えば、対象物のタグが「イマイチ」である場合、利用者は、「イマイチ」のタグ選択ボタン263をタップする。例えば、対象物のタグが「人気」である場合、利用者は、「人気」のタグ選択ボタン263をタップする。例えば、対象物のタグを新たに追加する場合、利用者は、「新規作成」のタグ選択ボタン263をタップした後、操作部118を介して、タグ編集欄(不図示)に、対象物のタグを新たに入力する。
ステップS1006において、利用者端末110は、対象物のタグを保持する。保持されるタグの数は、特に限定されるものではない。ステップS1005からステップS1006までの処理は、利用者が対象物のタグを選択するごとに、繰り返し行われる。
なお、利用者端末110は、例えば、利用者がタップしたタグ選択ボタン263の表示を、色を変えて表示するなどにより、利用者がタップしたタグ選択ボタン263と利用者がタップしていないタグ選択ボタン263とを利用者が見て区別できるように表示する。これにより、利用者は、タップしたタグ選択ボタン263を確認することができる。
ステップS1007において、利用者は、報告書入力フォーム画面260において、録音開始ボタン261をタップすると録音が開始される。利用者は、例えば、マイクなどを用いて、所定時間、対象物の音声メモを入力する。録音時間は、利用者端末110によって予め設定されているが、対象物の音声メモの長さなどに合わせて、任意に変更可能である。なお、対象物の音声メモの内容は、利用者が任意に決定することが可能である。
ステップS1008において、利用者端末110は、対象物の音声メモを保持する。ステップS1007からステップS1008までの処理は、利用者が対象物の音声メモを録音するごとに、繰り返し行われる。
ステップS1009において、利用者は、報告書入力フォーム画面260において、完了ボタン264をタップする。これにより、利用者の編集操作が完了する。なお、ステップS1001からステップS1002までの処理(追加撮影)、ステップS1003からステップS1004までの処理(コメント入力)、ステップS1005からステップS1006までの処理(タグ選択)、ステップS1007からステップS1008までの処理(音声メモ録音)は、順不同で実施される。
ステップS1010において、利用者端末110は、対象物に関連する被写体の追加画像データ、対象物のコメントデータ、対象物のタグデータ、対象物の音声メモデータ、対象物の認識結果ID、言語設定データ、などの各種のデータを、ネットワーク50を介して、現場情報サーバ120へと送信する。言語設定データは、利用者端末110によって設定される。
ステップS1011において、現場情報サーバ120は、利用者端末110から受信した対象物に関連する被写体の追加画像データ、対象物のコメントデータ、対象物のタグデータ、対象物の音声メモデータ、対象物の認識結果ID、言語設定データ、などの各種のデータを、DBサーバ130へと送信する。
ステップS1012において、DBサーバ130は、現場情報サーバ120から受信した対象物の認識結果ID及び言語設定データに基づいて、対象物の関連情報を抽出する。対象物の関連情報は、利用者端末110によって設定される所定の言語に対応している。
また、DBサーバ130は、対象物の報告書IDを生成し、対象物に関連する被写体の追加画像データ、対象物のコメントデータ、対象物のタグデータ、対象物の音声メモデータ、対象物の認識結果ID、言語設定データ、などの各種のデータを、当該報告書IDと関連付けて蓄積する。なお、対象物の報告書IDは、対象物の報告書を識別するためのIDであり、報告書ごとに設定される。
また、DBサーバ130は、対象物の音声メモデータに基づいて、音声認識によるテキスト変換処理を行い、変換結果を保持する。また、DBサーバ130は、対象物のコメントデータ、対象物のタグデータ、対象物の音声メモデータに基づいて、テキスト変換処理を行い、テキスト変換処理を行ったテキストデータに対して、形態素解析処理を行って、対象物に関連するキーワードを抽出し、抽出結果を保持する。
ステップS1013において、DBサーバ130は、対象物の認識結果ID及び言語設定データに対応する対象物の関連情報を、現場情報サーバ120へと送信する。
ステップS1014において、現場情報サーバ120は、DBサーバ130から受信した対象物の関連情報を含む報告書完成画面情報を生成する。報告書完成画面情報は、利用者端末110によって設定される所定の言語に対応している。
ステップS1015において、現場情報サーバ120は、報告書完成画面情報を、ネットワーク50を介して、利用者端末110へと送信する。
ステップS1016において、利用者端末110は、報告書完成画面情報に基づいて、表示部117に、報告書完成画面280を表示する。
例えば、利用者端末110によって設定される言語が英語である場合、利用者が日本語表記された対象物(例えば、展示パネルなど)を撮影しても、報告書完成画面280には、英語表記された対象物の画像が表示される。例えば、利用者端末110によって設定される言語が日本語である場合、利用者が英語表記された対象物(例えば、展示パネルなど)を撮影しても、報告書完成画面280には、日本語表記された対象物の画像が表示される。
上述のように、本実施形態に係る文書作成支援方法によれば、対象物の特定情報及び利用者の操作に応じた対象物の編集情報以外の情報を付加した報告書を作成することが可能になる。
なお、上述した文書作成支援装置として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、文書作成支援装置の各機能を実現する処理内容を記述したプログラムを該コンピュータのデータベースに格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。
また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROMやDVD−ROMなどの記録媒体であってもよい。
上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
50 ネットワーク
100 文書作成支援システム
110 利用者端末(文書作成支援装置)
111 特定情報取得部
112 認識結果情報取得部
113 関連情報取得部
114 編集情報取得部
115 制御部
116 記憶部
117 表示部
118 操作部
120 現場情報サーバ
130 DBサーバ(データベースサーバ)
140 認識サーバ
150 認識エンジン



Claims (8)

  1. 対象物の特定情報に基づいて、前記対象物の認識結果情報を取得する認識結果情報取得部と、
    利用者の操作に応じた前記対象物の編集情報を取得する編集情報取得部と、
    前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を取得する関連情報取得部と、
    前記関連情報を含む画面情報に基づいて、前記対象物に関する報告書を表示する表示部と、
    を備える文書作成支援装置。
  2. 所定のデザインフォーマットを適用して、前記画面情報を整形する制御部を更に備える、
    請求項1に記載の文書作成支援装置。
  3. 前記編集情報は、
    前記利用者の追加撮影操作に応じた追加画像情報、前記利用者のコメント入力操作に応じたコメント情報、前記利用者のタグ選択操作に応じたタグ情報、或いは、前記利用者の音声録音操作に応じた音声メモ情報、である、
    請求項1又は2に記載の文書作成支援装置。
  4. 前記特定情報は、所定のセンサから取得される情報である、
    請求項1から3のいずれか一項に記載の文書作成支援装置。
  5. 対象物の特定情報に基づいて、前記対象物の認識結果情報を決定する認識エンジンと、
    前記認識結果情報と利用者の操作に応じた前記対象物の編集情報とを関連付けて蓄積し、前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を抽出するデータベースサーバと、
    前記関連情報を含む画面情報を生成する現場情報サーバと、
    前記画面情報に基づいて、前記対象物に関する報告書を表示する利用者端末と、
    を備える文書作成支援システム。
  6. 前記データベースサーバは、
    前記編集情報に基づいて、前記対象物に関連するキーワードを抽出する、
    請求項5に記載の文書作成支援システム。
  7. 前記データベースサーバは、
    前記認識結果情報と前記利用者の属性情報とを関連付けて蓄積する、
    請求項5又は6に記載の文書作成支援システム。
  8. コンピュータを、請求項1から4のいずれか一項に記載の文書作成支援装置として機能させるプログラム。


JP2018165818A 2018-09-05 2018-09-05 文書作成支援装置、文書作成支援システム、及びプログラム Pending JP2020038531A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018165818A JP2020038531A (ja) 2018-09-05 2018-09-05 文書作成支援装置、文書作成支援システム、及びプログラム
PCT/JP2019/032971 WO2020050055A1 (ja) 2018-09-05 2019-08-23 文書作成支援装置、文書作成支援システム、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018165818A JP2020038531A (ja) 2018-09-05 2018-09-05 文書作成支援装置、文書作成支援システム、及びプログラム

Publications (1)

Publication Number Publication Date
JP2020038531A true JP2020038531A (ja) 2020-03-12

Family

ID=69722528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018165818A Pending JP2020038531A (ja) 2018-09-05 2018-09-05 文書作成支援装置、文書作成支援システム、及びプログラム

Country Status (2)

Country Link
JP (1) JP2020038531A (ja)
WO (1) WO2020050055A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259750A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> マルチメディア報告書作成装置および報告書作成方法
JP2004029749A (ja) * 2002-05-09 2004-01-29 Matsushita Electric Ind Co Ltd 情報取得システム及び情報取得方法並びに画像撮影装置
JP2007183821A (ja) * 2006-01-06 2007-07-19 Seiko Epson Corp 画像に関連した文の設定

Also Published As

Publication number Publication date
WO2020050055A1 (ja) 2020-03-12

Similar Documents

Publication Publication Date Title
US11714523B2 (en) Digital image tagging apparatuses, systems, and methods
US9058375B2 (en) Systems and methods for adding descriptive metadata to digital content
US20150156247A1 (en) Client-Side Bulk Uploader
JPWO2015107640A1 (ja) アルバム作成プログラム、アルバム作成方法およびアルバム作成装置
EP2105930A1 (en) Selection and positioning of images within a template based on relative comparison of image attributes
US20160117085A1 (en) Method and Device for Creating and Editing Object-Inserted Images
US20060227223A1 (en) Image reproducing apparatus
JP2006314010A (ja) 画像処理装置及び画像処理方法
US20190347317A1 (en) Method and electronic device for creating an electronic signature
JP5336759B2 (ja) 画像出力装置及び画像出力方法
JP5027350B2 (ja) 画像フォルダ伝送再生装置及び画像フォルダ伝送再生プログラム
JP2009140453A (ja) 情報処理装置および方法、並びにプログラム
WO2020050055A1 (ja) 文書作成支援装置、文書作成支援システム、及びプログラム
JP2020009011A (ja) フォトブック作製システム及びサーバ装置
JP2007183858A (ja) 画像検索システム、画像検索装置、及び、コンピュータプログラム
JP5513539B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2013037595A (ja) 画像検索装置、動画検索装置、画像検索方法、動画検索方法及びプログラム
JP2006301757A (ja) データ閲覧装置、データ検索方法およびデータ検索プログラム
JP6014918B2 (ja) 情報処理装置、情報処理システム、及びプログラム
JP2010272001A (ja) 表示制御装置、表示制御方法及びプログラム
JP4920449B2 (ja) 画像データ検索装置、画像データ検索方法、及びプログラム
JP2009296299A (ja) 画像記録装置、画像記録プログラムおよび画像記録プログラムを記録した記録媒体
JP4953895B2 (ja) 写真集作成装置、写真集作成方法、プログラム、及び記憶媒体
JP2016021156A (ja) 画像表示装置
JP2021009564A (ja) 情報処理システム、撮像装置、情報処理装置および制御方法