JP7038884B1 - ユーザアシストシステム - Google Patents

ユーザアシストシステム Download PDF

Info

Publication number
JP7038884B1
JP7038884B1 JP2021164763A JP2021164763A JP7038884B1 JP 7038884 B1 JP7038884 B1 JP 7038884B1 JP 2021164763 A JP2021164763 A JP 2021164763A JP 2021164763 A JP2021164763 A JP 2021164763A JP 7038884 B1 JP7038884 B1 JP 7038884B1
Authority
JP
Japan
Prior art keywords
user
information
functional information
word group
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021164763A
Other languages
English (en)
Other versions
JP2023055405A (ja
Inventor
一郎 三木
Original Assignee
一郎 三木
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 一郎 三木 filed Critical 一郎 三木
Priority to JP2021164763A priority Critical patent/JP7038884B1/ja
Application granted granted Critical
Publication of JP7038884B1 publication Critical patent/JP7038884B1/ja
Priority to US17/959,565 priority patent/US20230103313A1/en
Publication of JP2023055405A publication Critical patent/JP2023055405A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

【課題】ユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供する。【解決手段】ユーザから入力されたテキストデータを取得する取得手段と、予め取得された1以上の単語を含む単語群とソフトウェアの機能に関する機能情報との関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群に対する前記機能情報を選択する選択手段と、前記選択手段により選択された機能情報を前記ユーザに提示する提示手段とを備えることを特徴とする。【選択図】図3

Description

本発明は、ユーザがソフトウェアを扱うためのユーザアシストシステムに関する。
近年、コンテンツを生成するクリエイト作業を行うユーザの多様性と共に、クリエイト作業の質を向上させるための新しいソフトウェアも多様化している。
これに伴い、多種多様なソフトウェアの中から、ユーザに適したソフトフェアを見つけることが難しくなっている。このため、ユーザが求めているソフトウェアの機能に関する機能情報をユーザに提示できるソフトウェア素材選定支援プログラムが必要とされている(例えば、特許文献1参照)。
特許文献1では、開発対象ソフトウェアを説明する文書に出現する文言に関係するソフトウェア素材を、文言とソフトウェア素材との関係を示す利用傾向関係情報から検索し、候補として提示するソフトウェア素材選定支援装置及びソフトウェア素材選定支援プログラムが開示されている。
特開2018-120381号公報
一方、クリエイト作業を行うユーザの中にはソフトウェアを扱うためのノウハウを持ち合わせていないユーザも多い。このようなユーザは、コンテキスト等のソフトウェアに関する専門用語を扱うためのノウハウを持ち合わせていない。
ここで、開発対象ソフトウェアを説明する文書に出現する文言は、主にコンテキスト等の専門用語により構成されている。しかしながら、ソフトウェアを扱うためのノウハウを持ち合わせていないユーザは、コンテキスト等の専門用語を扱うことができない。このため、特許文献1の開示技術では、開発対象ソフトウェアを説明する文書に出現する文言を用いて、ソフトウェア素材を検索するにはユーザにコンテキスト等の専門用語を扱うノウハウが求められていることが問題点となっている。
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、ユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することを目的とする。
第1発明に係るユーザアシストシステムは、ユーザから入力されたテキストデータを取得する取得手段と、予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え、前記選択手段は、予め取得された単語群を含む入力データと機能情報を含む出力データとからなるデータセットを学習データとして用い、入力を入力データとし、出力を出力データとして、機械学習により生成された前記関係を示す選択モデルを参照することを特徴とする。
第2発明に係るユーザアシストシステムは、第1発明において、前記選択手段は、新たに取得した単語群を含む入力データと当該単語群に対応する機能情報を含む出力データとからなるデータセットを学習データとして、前記選択モデルに随時機械学習させることを特徴とする。
第3発明に係るユーザアシストシステムは、ユーザから入力されたテキストデータを取得する取得手段と、予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え、前記選択手段は、前記ユーザから新たに入力されたテキストデータを取得し、当該テキストデータに含まれる単語を含む前記単語群に、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含ませることを特徴とする。
第4発明に係るユーザアシストシステムは、ユーザから入力されたテキストデータを取得する取得手段と、予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段と、前記選択手段により選択された出力データに含まれる機能情報に含まれる機能の効果に関する効果情報を提示する使用例提示手段とを備えることを特徴とする。
第5発明に係るユーザアシストシステムは、ユーザから入力されたテキストデータを取得する取得手段と、予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え、前記選択手段は、予め取得された前記ソフトウェアの構成を特定するための特定用単語を参照し、前記ソフトウェアを説明する文書から抽出された前記特定用単語が含まれる前記構成を説明する構成情報に基づいて生成された機能情報を含む出力データと前記単語群を含む入力データとの関係を示す選択モデルを参照することを特徴とする。
第6発明に係るユーザアシストシステムは、ユーザから入力されたテキストデータを取得する取得手段と、予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え、前記提示手段は、予め取得した前記ユーザに関するユーザ情報を参照し、前記選択手段により選択された出力データに含まれる機能情報の中から、ユーザに提示する機能情報を1以上決定することを特徴とする。
第7発明に係るユーザアシストシステムは、第6発明において、前記提示手段は、前記ユーザのソフトウェア及びソフトウェアの機能の利用頻度に関する情報と各機能情報の連関度とを含むユーザ情報を参照することを特徴とする。
第8発明に係るユーザアシストシステムは、ユーザから入力されたテキストデータを取得する取得手段と、予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え、前記取得手段は、前記ユーザに関するユーザ情報をさらに取得し、前記選択手段は、予め取得された単語群及びユーザ情報を含む入力データと機能情報を含む出力データとの関係を示す選択モデルを参照し、前記単語群及び前記取得手段により取得されたユーザ情報を含む入力データに対する前記機能情報を含む出力データを1以上選択すること
を特徴とする。
第9発明に係るユーザアシストシステムは、第8発明において、前記取得手段は、質問データに対するユーザの回答を示す回答データを取得し、当該回答データに基づいて、新たに質問データを生成することを複数回繰り返し、取得した複数の前記回答データを含むユーザ情報を取得することを特徴とする。
第10発明に係るユーザアシストシステムは、第8発明又は第9発明において、前記取得手段は、前記ユーザのソフトウェア及びソフトウェアの機能の利用頻度に関する情報を含むユーザ情報を取得することを特徴とする。
第11発明に係るユーザアシストシステムは、第1発明~第10発明の何れかにおいて、前記提示手段は、前記機能情報をモニターの画面上において背面が可視可能なサイン、又は音声により前記ユーザに提示することを特徴とする。
第12発明に係るユーザアシストシステムは、第1発明~第11発明の何れかにおいて、前記取得手段は、前記ユーザから入力される音声を取得し、音声認識を用いて前記音声から前記テキストデータを取得することを特徴とする。
第1発明~第1発明によれば、本発明のユーザアシストシステムは、予め取得された1以上の単語を含む単語群とソフトウェアの機能に関する機能情報との関係を示す選択モデルを参照し、テキストデータに含まれる1以上の単語を含む単語群に対する機能情報を選択する。これによって、例えば単語群に「ふんわり」や「ふわふわ」等の類似する単語が複数含ませることにより抽象的な単語から、単語に対応する機能情報を取得することが可能となる。このため、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
特に、第発明によれば、本発明のユーザアシストシステムは、予め取得された単語群と機能情報とからなるデータセットを学習データとして用い、入力を単語群とし、出力を機能情報として、機械学習により生成された関係を示す選択モデルを参照する。これによって3段階以上の関係を用いて、単語群と機能情報を紐づけることが可能となるので、入力された単語群により適した機能情報を選択することができる。
特に、第発明によれば、本発明のユーザアシストシステムは、新たに取得した単語群と当該単語群に対応する機能情報とからなるデータセットを学習データとして、選択モデルに随時機械学習させる。これによって、順次学習を繰り返し行うことができるため、入力された単語群により適した機能情報を選択することができる。
特に、第11発明によれば、本発明のユーザアシストシステムは、機能情報をモニターの画面上において背面が可視可能なサイン、又は音声によりユーザに提示する。これによって、ユーザの操作を阻害することなく、ユーザに機能情報を提示することが可能となるので、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
特に、第12発明によれば、本発明のユーザアシストシステムは、取得手段は、ユーザから入力される音声を取得し、音声認識を用いて音声からテキストデータを取得する。これによって、ユーザから入力された音声からテキストデータを取得することが可能となるため、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
特に、第発明によれば、本発明のユーザアシストシステムは、取得手段により取得されたテキストデータに含まれる1以上の単語が、単語群に含まれない場合、ユーザから新たに入力されたテキストデータを取得し、当該テキストデータに含まれる単語を含む単語群に、取得手段により取得されたテキストデータに含まれる1以上の単語を含ませる。これによって、入力された単語を含む単語群が選択モデルにない場合においても、当該単語を単語群に自動的に含ませることができるため、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
特に、第発明によれば、本発明のユーザアシストシステムは、選択手段により選択された機能情報に含まれる機能の効果に関する効果情報を提示する使用例提示手段をさらに備える。これによって、効果情報として、例えば機能を使用したときの使用例を提示することが可能となるので、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
特に、第発明によれば、本発明のユーザアシストシステムは、ソフトフェアの処理を特定するための処理用単語を参照し、ソフトウェアについて記載された文章から処理用単語が含まれる処理について記載された処理情報を抽出する。これによって、例えばソースコードから取得した処理情報に基づく機能情報を取得することができるため、機能情報を容易に取得することができる。入力された単語に対する単語群が選択モデルにない場合においても、当該単語を単語群に自動的に含ませることができるため、入力された単語により適した機能情報を選択することができる。
特に、第発明によれば、本発明のユーザアシストシステムは、予め取得したユーザに関するユーザ情報を参照し、選択手段により選択された機能情報の中から、ユーザに提示する機能情報を1以上決定する。これにより、よりユーザに適した機能情報を提示することが可能となるので、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
特に、第発明によれば、本発明のユーザアシストシステムは、ユーザのソフトウェアの利用頻度に関する情報及び各機能情報の連関度を含むユーザ情報を参照する。これにより、例えば利用頻度に関する情報からユーザの利用頻度の高いソフトウェアを抽出し、選択手段により選択された機能情報の中から抽出したソフトウェアの機能情報との連関度の高い機能情報を選択することが可能となる。これにより、よりユーザに適した機能情報を提示することが可能となるので、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
特に、第発明によれば、本発明のユーザアシストシステムは、予め取得された単語群及びユーザ情報と機能情報との関係を示す選択モデルを参照し、単語群及びユーザ情報に対する機能情報を1以上選択する。これにより、よりユーザに適した機能情報を提示することが可能となるので、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
特に、第発明によれば、本発明のユーザアシストシステムは、回答データを取得し、当該回答データに基づいて、新たに質問データを生成することを複数回繰り返し、取得した複数の回答データを含むユーザ情報を取得する。これにより、ユーザが求めている機能情報に関する情報をより詳細に取得できる。これにより、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
特に、第10発明によれば、本発明のユーザアシストシステムは、取得手段は、ユーザのソフトウェア及びソフトウェアの機能の利用頻度に関する情報を含むユーザ情報を取得する。これにより、ユーザが頻繁に利用している機能情報を取得することができる。これにより、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
図1は、実施の形態におけるユーザアシストシステムを示す図である。 図2は、ユーザアシスト装置の構成の一例を示す模式図である。 図3は、ユーザアシスト装置の機能の一例を示す模式図である。 図4は、ユーザアシスト装置を説明するフローチャートである。 図5は、処理情報の抽出の動作の一例を示す図である。 図6は、参照用単語群と機能情報との関連性を示す図である。 図7は、参照用単語群と機能情報との隠れ層を設けた場合の関連性を示す図である。 図8は、使用例提示部の動作の一例を示す図である。 図9は、提示部の動作の一例を示す図である。 図10は、質問データと回答データの対応表を示す図である。 図11は、参照用単語群及び参照用ユーザ情報と機能情報との関連性を示す図である。
(第1実施形態)
以下、本発明の第1実施形態におけるユーザアシストシステムの一例について、図面を参照して説明する。
図1は、第1実施形態に係るユーザアシストシステム100を示す図である。ユーザアシスト装置1は、通信ネットワーク4を介してユーザ端末2と、サーバ3と、に接続されている。
ユーザアシスト装置1は、通信ネットワーク4を介して、ユーザ端末2からテキストデータを取得し、テキストデータに含まれる1以上の単語を含む単語群を含む入力データに対するソフトウェアの機能に関する機能情報を含む出力データを選択するコンピュータである。
ユーザ端末2は、テキストデータを取得するためのアプリケーションがインストールされているスマートフォン、タブレット端末、パーソナルコンピュータ、ウェアラブル端末、携帯電話機等の端末である。また、ユーザ端末2は、ユーザアシスト装置1を内蔵していてもよい。かかる場合、ユーザ端末2は、通信ネットワーク4を介することなく、ユーザアシスト装置1と、通信を行ってもよい。
サーバ3は、例えば、ユーザ端末2が取得したテキストデータや、単語及び単語群、機能情報等の各種情報を記憶するサーバであるが、クラウドサーバやASPサーバ等でもよく、そのタイプは問わない。
通信ネットワーク4は、ユーザアシスト装置1と、ユーザ端末2と、サーバ3とを通信回線を介して接続されるインターネット網等である。通信ネットワーク4は、ユーザアシスト装置システム1を一定の狭いエリア内で運用する場合には、LAN(Local Area Network)で構成されてもよい。また、通信ネットワーク4は、いわゆる光ファイバ通信網で構成されてもよい。また、この通信ネットワーク4は、有線通信網に限定されるものではなく、無線通信網で実現されてもよい。以下、ユーザアシスト装置1の構成を詳細に説明する。
図2は、ユーザアシスト装置1の構成の一例を示す模式図である。ユーザアシスト装置1として、例えばパーソナルコンピュータ(PC)、スマートフォン、タブレット端末等の公知の電子機器が用いられる。ユーザアシスト装置1は、例えば筐体10と、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、保存部104と、I/F105~107と、入力部108と、表示部109とを備える。各構成101~107は、内部バス110により接続される。
CPU101は、ユーザアシスト装置1全体を制御する。ROM102は、CPU101の動作コードを格納する。RAM103は、CPU101の動作時に使用される作業領域である。保存部104は、処理用データ等の各種情報が保存される。保存部104として、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)等が用いられる。
I/F105は、ユーザ端末2、サーバ3、通信ネットワーク4等との各種情報の送受信を行うためのインターフェースである。I/F106は、入力部108との各種情報の送受信を行うためのインターフェースである。I/F107は、表示部109との各種情報の送受信を行うためのインターフェースである。
入力部108には、キーボードが用いられるほか、例えばマイク等の収音装置が用いられてもよい。入力部108は、ユーザアシスト装置1を利用するユーザによって、テキストデータや音声等の各種情報が入力される。
表示部109は、保存部104に保存された会話文等の各種情報等を表示する。表示部109は、例えばディスプレイ及びモニターが用いられるほか、例えばスピーカが用いられる。
なお、I/F105~I/F107は、例えば同一のものが用いられてもよく、各I/F105~I/F107は、例えばそれぞれ複数のものが用いられてもよい。また、表示部109は、タッチパネル式のディスプレイが用いられる場合、入力部108を含む構成としてもよい。
図3は、ユーザアシスト装置1の機能の一例を示す模式図である。ユーザアシスト装置1は、取得部11と、取得部11に接続される解析部12と、解析部12に接続される選択部13と、選択部13に接続される使用例提示部14と、使用例提示部14に接続される提示部15とを備えてもよい。なお、ユーザアシスト装置1は、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現される。また、ユーザアシスト装置1は、人工知能により制御されてもよい。ここで、人工知能は、いかなる周知の人工知能技術に基づくものであってもよい。
取得部11は、音声又は入力端末を介して入力されたテキストデータを取得する。取得部11は、例えばユーザ端末2又は入力部108を介してユーザから入力されたテキストデータを取得する。例えばユーザ端末2又は入力部108を介して、ユーザから会話文が音声により入力された場合、取得部11は、公知の音声認識技術(例えば音素認識技術)を用いて音声から生成されたテキストデータを取得する。なお、音声認識技術は、例えば通信ネットワーク4を介して、クラウド型の音声認識技術を用いてもよい。取得部11は、入力されたテキストデータを解析部12に出力する。
解析部12は、取得部11から入力されたテキストデータについて、例えば形態素解析等の自然言語解析をすることにより、動詞や名詞、格成分等を始めとする文の個々の単語を抽出する。解析部12は、抽出した単語を選択部13に出力する。
選択部13は、選択モデルを用いて、単語群と機能情報との関係を示す選択モデルを参照し、解析部12から入力された単語を含む単語群に対する機能情報を選択する。選択部13は、選択した機能情報を使用例提示部14に出力する。
使用例提示部14は、選択部13から入力された機能情報に含まれる機能の効果に関する効果情報を提示する。使用例提示部14は、例えばユーザに選択された機能情報を提示部15に出力する。
提示部15は、機能情報を提示する。提示部15は、表示部109又はユーザ端末2等を介して、ユーザが認識できるように機能情報を提示する。提示部15は、I/F105を介してユーザ端末2等に機能情報等を出力し、ユーザ端末2に設けられたディスプレイやモニターを介して機能情報等を提示してもよい。
次に、本発明を適用した実施形態におけるユーザアシスト装置1の動作について説明をする。図4に示すようにステップS11において会話文を取得する。会話文は、人が会話する文であり、自然言語による文といってもよい。会話文の取得は、例えば、音声での取得であるが、テキストデータでの取得でもよい。音声は、人が発した声である。テキストデータは、人が発した声を音声認識した文字列又はキーボード等により入力された文字列である。文字列は、1または2以上の文字の配列で構成される。具体的には、音声データとして取得部11において会話文が取得した場合には、これを公知の音声認識技術(例えば音素認識技術)を用いテキストデータを生成する。
次にステップS12に移行し、S11において取得され、記憶部13において一時的に記憶されているテキストデータを読み出し、これを自然言語解析として例えば形態素解析する。この形態素解析は、主として解析部12が行う。形態素解析技術は周知のいかなる形態素解析技術を利用するようにしてもよい。形態素解析をされたテキストデータの単語は、選択部13に出力される。また、解析部12が行う自然言語解析の他の例として、構文解析、同義語抽出、スパン抽出、含意認識等を行ってもよい。
構文解析は、係り受け解析と呼ばれ、所定の構造的制約を満たす中で、単語及び文節間の係り受け関係としての自然さを計算し、単語及び文節間の係り受け関係を決定する解析方法である。
同義語抽出は、処理対象のテキストデータを入力し、表記が異なるが同一の意味を持つ同義語のペアを抽出する解析方法である。同義語は、例えばIT関連、機械関連、料理関連など特定のドメイン(分野)ごとに抽出して記憶しておいてもよい。
スパン抽出は、学習データから学習したモデルを利用し、入力されたテキストデータから重要部分を自動的に切り出して抽出する解析方法である。スパン抽出の代表的な手法としては、CRF(Conditional Random Field:条件付き確率場)がある。例えば、学習データとして、「家族と旅行でハワイに行きます」、「来月は旅行でアメリカに行く」、「行先はニューヨークです」の3つが入力された場合を説明する。この場合、学習データを学習することで、「旅行」+「で」の後と、「に」+「行く」の前の間にある単語が行先の可能性が高いことが分かる。この結果、未知のデータとして「旅行でイタリアに行きます」と入力されたとき、行先として「イタリア」を抽出することができる。また、「含意認識」とは、2つの文章について、一方の文章が他方の文章が表す意味を含むか否かを判定する解析方法である。
このステップS12における形態素解析の結果、会話文に含まれる単語が抽出される。単語は、通常、自立語である。自立語とは、単独でも文節を構成し得る語であり、例えば、名詞であるが、動詞、形容詞等でもよい。ただし、対応付く単語は、付属語でもよい。付属語とは、単独では文節を構成し得ず、他の自立語を伴って文節を構成する語であり、例えば、助動詞、助詞等である。つまり、対応付く単語は、通常、自立語であるが、付属語を伴った自立語であってもよい。
また、単語は、例えば、連語でもよい。連語とは、2以上の自立語が結び付いて一定の意味を表す語であり、複合語といってもよい。連語は、例えば、“柔らかい”と“音”が結合した“柔らかい音”や、“合成”と“音声”が結合した“合成音声”等であり、2以上の語の組であれば何でもよい。
次にステップS13に移行し、選択部13は、単語群と機能情報との関係を示す選択モデルを参照し、取得ステップS11により取得されたテキストデータに含まれる1以上の単語を含む単語群に対する機能情報を選択する。単語群とは、1以上の単語からなる群であり、例えば類似する意味を持つ複数の単語からなる群であってもよい。また、単語群は、「ふんわり」や「ふわふわ」等の同じ意味を持つが品詞が異なる単語からなる群であってもよい。機能情報は、ソフトウェアの機能に関する情報である。ソフトウェアの機能に関する情報は、例えばソフトウェアの機能の名称、機能を説明する情報やソフトウェアの使用方法、マニュアル等、又はソフトウェアに含まれる各種の素材に関する情報等であってもよい。ソフトウェアは、例えばお絵描きツールで、画像編集プログラム、作曲ツール等であってもよい。また、機能情報は、例えばお絵描きツール内の「アクリル筆」、「油筆」、「色鉛筆」、「クレヨン」等の素材の使用方法等であってもよい。
選択部13は、先ずステップS12において自然言語解析した単語について、当該単語が含まれる単語群を選択する。このとき保存部104に格納された類義語辞書を参照し、単語に対する単語群を選択してもよい。類義語辞書とは、類義語に関する辞書である。類義語辞書には例えば保存部104に格納されている1以上の各単語群に、単語と、当該単語の1または2以上の類義語とが紐づけて登録されている。具体的には、例えば、単語群として「柔らかい」の単語群に対応付けて、「ふんわり」、「ふわふわ」等が登録されていてもよい。そして、この類義語辞書を介して、新たに取得した単語が類義語辞書内の単語と類似するか否かを判別することができる。仮に類義語辞書内の単語群が「柔らかい」であり、新たに取得した単語が「ふんわり」である場合、類義語辞書において類似するものとして予め登録されていることから「ふんわり」という単語が「柔らかい」の単語群に含まれているものと判断することが可能となる。当該単語が複数の単語群に含まれている場合、当該単語を含む複数の単語群を選択してもよい。また、当該単語が含まれる単語群が、例えば上述した類義語辞書内に登録されていない場合、新たにユーザからテキストデータを取得し、そのテキストデータに含まれる単語が含まれる単語群に当該単語を含めて登録してもよい。かかる場合、例えば類義語辞書内の単語に、ステップS12において自然言語解析した「ふんわり」という単語が含まれていない場合、新たにユーザからテキストデータを取得し、形態素解析を行う。この結果、新たに取得したテキストデータに類義語辞書に「柔らかい」の単語群に登録されている「ふわふわ」という単語が含まれていた場合、「ふんわり」という先に取得した単語を「柔らかい」の単語群に登録するようにしてもよい。これによって、入力された単語に対する単語群が選択モデルにない場合においても、当該単語を単語群に自動的に含ませることができるため、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。また、当該単語が含まれる単語群が、例えば上述した類義語辞書内に登録されていない場合、新たにユーザからテキストデータを取得し、そのテキストデータに含まれる単語が含まれる単語群に当該単語を含めて登録するとき、登録する前にユーザに当該単語を当該単語群に含ませるかを質問し、質問に対する回答情報を取得し、当該回答情報に応じて登録するかどうかを判断してもよい。また、かかる場合、当該単語と当該単語群と当該回答情報とを一つのデータセットとして、複数のデータセットを用いて学習モデルを生成してもよい。これによって、入力された単語に対する単語群が選択モデルにない場合においても、当該単語を単語群にさらに高精度に自動的に含ませることができるため、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
次に、ステップS13において、選択モデルを参照し、選択された単語群に対する機能情報を選択する。
選択モデルとは、予め取得された単語群を含む入力データと機能情報を含む出力データとの関係を示すモデルである。選択モデルは、例えば表1に示すような単語群に対応する機能情報が記載された関係テーブルであってもよい。例えば、テキストデータとして「ふわふわした音の素材が欲しい」というテキストデータが入力された場合、「ふわふわした・音の・素材が・欲しい」と、解析部12に形態素解析されたとすると、選択部13は選択モデルを用いて、「ふわふわした」という単語が含まれる「柔らかい」の単語群に対応する機能情報Bを選択してもよい。
Figure 0007038884000002
また、選択モデルは、予め取得された参照用単語群を含む入力データと機能情報を含む出力データとからなるデータセットを学習データとして用い、入力を参照用単語群とし、出力を機能情報として、機械学習により生成された学習済みモデルであってもよい。参照用単語群は、学習データの入力データとして用いられる単語群であり、単語群と同じデータ形式のものを用いてもよい。
また、選択モデルの出力データに用いられる機能情報は、予め取得されたソフトフェアの構成を特定するための特定用単語を参照し、ソフトウェアを説明する文書から抽出された特定用単語が含まれる構成について記載された構成情報に基づいて生成されたものでもよい。ソフトウェアについて記載された文章は、ソフトウェアについての説明書、マニュアル、又はソフトウェアのソースコードであってもよい。特定用単語は、ソフトウェアを説明する文書からソフトウェアの構成を特定するために用いられる予め取得された単語である。特定用単語は、例えば「button」等が含まれる。構成情報は、ソフトウェアの構成に関する情報である。構成情報として、例えばアップロードボタンや、ダウンロードボタン等が含まれる。かかる場合、例えば図5に示すように、ブラウザ上にHTMLの形式で掲載されているソフトウェアのソースコードから、特定用単語に含まれる「button」という単語を参照し、上述した単語が含まれるコードを抽出し、抽出したコードが示す「アップロードをするためのボタン」、「キューを削除するためのボタン」、「全てをダウンロードするためのボタン」等の構成を構成情報として取得する。その後、構成情報に基づいて機能情報を生成する。
選択モデルの生成方法として、例えばニューラルネットワークをモデルとした機械学習を用いて、選択モデルを生成してもよい。選択モデルは、例えばCNN(Convolution Neural Network) 等のニューラルネットワークをモデルとした機械学習を用いて生成されるほか、任意のモデルが用いられてもよい。
かかる場合、選択モデルには、例えば図6のように、参照用単語群と機能情報との間における連関度を有する連関性が記憶される。連関度は、参照用単語群と機能情報との繋がりの度合いを示しており、例えば連関度が高いほど各データの繋がりが強いと判断することができる。連関度は、例えば百分率等の3値以上又は3段階以上で示されるほか、2値又は2段階で示されてもよい。
例えば連関性は、複数の参照用単語群、対、複数の機能情報の間における繋がりの度合いにより構築される。連関性は、機械学習の過程で適宜更新され、例えば複数の参照用単語群、及び複数の機能情報に基づいて最適化された関数を用いた分類器を示す。なお、連関性は、例えば各データの間における繋がりの度合いを示す複数の連関度を有してもよい。連関度は、例えばデータベースがニューラルネットワークで構築される場合、重み変数に対応させることができる。連関性は、例えば図6に示すように、複数の参照用単語群と、複数の機能情報との間における繋がりの度合いを示してもよい。この場合、連関性を用いることで、図6の「参照用単語群A」~「参照用単語群C」のそれぞれの参照用単語群に対し、「機能情報A」~「機能情報C」の複数の機能情報との関係の度合いを紐づけて記憶させることができる。このため、例えば連関性を介して、1つの機能情報に対して、複数の参照用単語群を紐づけることができる。これにより、単語群に対して多角的な機能情報の選択を実現することができる。
連関性は、例えば各機能情報と、各単語群とをそれぞれ紐づける複数の連関度を有する。連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。例えば、単語群に含まれる「単語群A」は、機能情報に含まれる「機能情報A」との間の連関度AA「73%」を示し、単語群に含まれる「単語群B」との間の連関度AB「12%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、例えば連関度が高いほど、各データの繋がりが強いことを示す。例えば、「柔らかい」という単語群と「機能情報B」との連関度が「92%」であり、「柔らかい」という単語群と、「機能情報C」という機能情報との連関度が「5%」である場合、「柔らかい」という単語群と「機能情報C」との繋がりよりも「柔らかい」という単語群と「機能情報B」との繋がりが強いことを示す。
このような図6に示す3段階以上の連関度を予め取得しておく。つまり実際の推定解の判別を行う上で、単語群と、機能情報の何れが採用、評価されたか、過去のデータセットを蓄積しておき、これらを分析、解析することで図6に示す連関度を作り上げておく。
例えば、過去において「柔らかい」という単語群に対して、機能情報Bが最も適合性が高いと判断され、評価されたものとする。このようなデータセットを集めて分析することにより、参照用単語群と機能情報との連関度が強くなる。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば入力された単語群が「柔らかい」である場合に、過去のデータセットに基づいて、機能情報Bが推定される事例が多い場合には、この「柔らかい」と機能情報Bとにつながる連関度をより高く設定する。
また、この連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。
また、選択モデルは、図7に示すように、入力データとして参照用単語群が入力され、出力データとして機能情報が出力され、入力データと出力データとの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。入力データ又は隠れ層データの何れか一方又は両方において上述した連関度が設定され、これが各データの重み付けとなり、これに基づいて出力の選択が行われる。そして、この連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから新たに単語群から機能情報の推定を行うこととなる。かかる場合には、ステップS12において抽出した単語に対する単語群を新たに取得する。新たに取得した単語群に基づいて、これに見合う機能情報を推定する。推定の際には、例えば予め取得した図6に示す連関度を参照する。例えば、新たに取得した単語群が「参照用単語群A」と同一かこれに類似するものである場合には、連関度を介して「機能情報A」との間の連関度AA「73%」、「機能情報B」との間の連関度AB「12%」で関連付けられている。この場合には、連関度の最も高い「機能情報A」を最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる「機能情報B」を最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。
このような連関度を参照することにより、単語群が、機能情報と同一又は類似である場合のほか、非類似である場合においても、単語群に適した機能情報を定量的に選択することができるため、会話文から抽出した単語群がいかなる機能情報に該当するものであるのかを精度良く判別することができる。これによって3段階以上の関係を用いて、単語群と機能情報を紐づけることが可能となるので、入力された単語により適した機能情報を選択することができる。また、選択モデルは、ステップS13で入力された入力データと、選択された出力データを学習データとして、強化学習を行ってもよい。
次にステップS14へ移行し、使用例提示部14は、ステップS13で選択された機能情報に対応する効果情報を提示する。効果情報は、機能の効果に関する情報である。効果情報は、例えば機能情報が説明する機能を使用したときの効果を示す情報であり、当該機能を使用したときの使用例を提示してもよい。また、使用例提示部14は、図8に示すように、例えばステップS13において、複数の機能情報が選択された場合、各機能情報を示すモニター5の画面上のアイコンに対してカーソル6が重なった際にモニター5の画面上において背面が可視可能な半透明なサインを用いて、ユーザに効果情報を示すようにしてもよい。かかる場合、使用例提示部14は、例えば機能情報として「アクリル筆」「油筆」「色鉛筆」「クレヨン」を取得した場合、それぞれの素材を使用した場合の使用例を効果情報としてモニター5に表示させてもよい。使用例提示部14は、例えば複数の機能情報の中から、ユーザに選択された機能情報を、提示部15に出力するようにしてもよい。
次にステップS15へ移行し、提示部15は、ステップS14で、選択された機能情報を提示する。提示部15は、例えば図9に示すように、ユーザ端末2のモニター5の画面上において背面が可視可能な半透明なサインを用いて、機能情報をユーザに提示してもよい。また、提示部15は、音声を用いて機能情報を提示してもよい。これによって、ユーザの操作を阻害することなく、ユーザに機能情報を提示することが可能となるので、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
また、ステップS15において、提示部15は、予め取得したユーザに関するユーザ情報を参照し、ステップS13により選択された機能情報の中から、ユーザに提示する機能情報を1以上決定してもよい。ユーザ情報は、ユーザに関する情報であり、例えばユーザの年齢や性別等のユーザの属性、ユーザの好み、ユーザのソフトウェア及びソフトウェアの機能の利用履歴、利用頻度、又はユーザが使用中のソフトウェア及びソフトウェアの機能の情報等である。また、ユーザ情報は、各機能情報の連関度を含んでもよい。各機能情報の連関度は、各機能情報間の連関度を示す情報であり、例えば機能情報aと機能情報bとの関係の度合いを示すものである。また、ユーザ情報として、ユーザが使用しているソフトウェア及びソフトウェアの機能の情報を取得し、ステップS13により選択された機能情報の中に取得したソフトウェアの機能情報が含まれている場合、当該機能情報をユーザに提示しないように決定してもよい。
また、ユーザと同じ属性を示す他ユーザによる利用頻度が高いソフトウェアの機能情報が、ステップS13により選択された機能情報の中に含まれている場合、当該機能情報をユーザに提示するように決定してもよい。かかる場合、ユーザの属性毎にソフトウェアの利用頻度のリストを作成し、ユーザ情報を当該リストに参照させ、当該ソフトウェアの機能情報をユーザに提示するように決定してもよい。
また、ユーザが良く利用しているソフトウェア及びソフトウェアの機能と類似するソフトウェアの機能情報が、ステップS13により選択された機能情報の中に含まれている場合、当該機能情報をユーザに提示するように決定してもよい。かかる場合、ユーザ情報に含まれるユーザのソフトウェア及びソフトウェアの機能の利用頻度又は利用履歴を参照し、利用頻度の高いソフトウェアの機能情報と連関度の高い機能情報をユーザに提示してもよい。かかる場合、予め取得した各機能情報の連関度を参照してもよい。各機能情報の連関度は、機能情報同士の連関度が示されたデータであり、例えば機能情報Aと機能情報Bとが30%、機能情報Aと機能情報Cとが70%、機能情報Bと機能情報Cとが50%の連関度で連関していることを示すデータである。また、類似する複数のソフトウェアの機能情報が紐づけられた機能情報群を予め取得し、上述した機能情報群を参照し、ユーザに提示する機能情報を決定してもよい。
(第2実施形態)
以下、本発明の第2実施形態におけるユーザアシストシステムの一例について、図面を参照して説明する。第2実施形態は、予め取得された単語群及びユーザ情報を含む入力データと機能情報を含む出力データとの関係を示す選択モデルを参照し、単語群及びユーザ情報に対する機能情報を1以上選択する点において第1実施形態と異なる。また、第1実施形態と同様なものの説明は省略する。
第2実施形態では、ステップS11においてユーザ情報を取得する。また、かかる場合、ユーザ情報は、質問データに対するユーザの回答を示す回答データを含む。質問データは、ユーザが使いたいソフトウェア及びソフトウェアの機能を特定するための質問のデータであり、例えばソフトウェア及びソフトウェアの機能の傾向等を訪ねる質問に関するデータであってもよい。回答データは、質問データに対するユーザの回答であり、例えば図10に示すような複数の選択肢を含むデータであってもよい。また、回答データを取得したときに、取得した回答データに基づいて、新たに質問データを生成し、この質問データに対する回答データをさらに取得してもよい。かかる場合、ステップS11は、図10に示すような質問データと回答データの対応表を参照し、取得した回答データに基づいて、新たに質問データを生成し、この質問データに対する回答データをさらに取得すること複数回繰り返し、複数の回答データを含むユーザ情報を取得してもよい。これにより、ユーザが求めている機能情報に関する情報をより詳細に取得できる、これにより、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。また、ユーザ情報は、ユーザのソフトウェア及びソフトウェアの機能の利用履歴、利用頻度に関する情報が含まれていてもよい。
第2実施形態では、ステップS13において、選択部13は、予め取得された単語群及びユーザ情報を含む入力データと機能情報を含む出力データとの関係を示す選択モデルを参照し、ステップS11において取得した単語群及びユーザ情報を含む入力データに対する機能情報を含む出力データを1以上選択する。かかる場合、選択モデルは、単語群及びユーザ情報を入力とし、機能情報を出力として、入力と出力の関係を示すモデルである。選択モデルは、例えば例えばニューラルネットワークをモデルとした機械学習を用いて、選択モデルを生成してもよい。かかる場合、選択モデルには、例えば図11のように、参照用単語群及び参照用ユーザ情報と機能情報との間における連関度を有する連関性が記憶される。この選択モデルは入力データとして参照用ユーザデータが含まれる点で第1実施形態と異なる。これにより、よりユーザに適した機能情報を提示することが可能となるので、よりユーザビリティに優れた、ソフトウェアを扱うためのユーザアシストシステムを提供することができる。
本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 ユーザアシスト装置
2 ユーザ端末
3 サーバ
4 通信ネットワーク
5 モニター
6 カーソル
10 筐体
11 取得部
12 解析部
13 選択部
14 使用例提示部
15 提示部
100 ユーザアシストシステム
101 CPU
102 ROM
103 RAM
104 保存部
105~107 I/F
108 入力部
109 表示部
S11 取得ステップ
S12 解析ステップ
S13 選択ステップ
S14 使用例提示ステップ
S15 提示ステップ

Claims (12)

  1. ユーザから入力されたテキストデータを取得する取得手段と、
    予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、
    前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え
    前記選択手段は、予め取得された単語群を含む入力データと機能情報を含む出力データとからなるデータセットを学習データとして用い、入力を入力データとし、出力を出力データとして、機械学習により生成された前記関係を示す選択モデルを参照すること
    を特徴とするユーザアシストシステム。
  2. 前記選択手段は、新たに取得した単語群を含む入力データと当該単語群に対応する機能情報を含む出力データとからなるデータセットを学習データとして、前記選択モデルに随時機械学習させること
    を特徴とする請求項に記載のユーザアシストシステム。
  3. ユーザから入力されたテキストデータを取得する取得手段と、
    予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、
    前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え
    前記選択手段は、前記ユーザから新たに入力されたテキストデータを取得し、当該テキストデータに含まれる単語を含む前記単語群に、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含ませること
    を特徴とするユーザアシストシステム。
  4. ユーザから入力されたテキストデータを取得する取得手段と、
    予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、
    前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段と
    前記選択手段により選択された出力データに含まれる機能情報に含まれる機能の効果に関する効果情報を提示する使用例提示手段とを備えること
    を特徴とするユーザアシストシステム。
  5. ユーザから入力されたテキストデータを取得する取得手段と、
    予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、
    前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え
    前記選択手段は、予め取得された前記ソフトウェアの構成を特定するための特定用単語を参照し、前記ソフトウェアを説明する文書から抽出された前記特定用単語が含まれる前記構成を説明する構成情報に基づいて生成された機能情報を含む出力データと前記単語群を含む入力データとの関係を示す選択モデルを参照すること
    を特徴とするユーザアシストシステム。
  6. ユーザから入力されたテキストデータを取得する取得手段と、
    予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、
    前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え
    前記提示手段は、予め取得した前記ユーザに関するユーザ情報を参照し、前記選択手段により選択された出力データに含まれる機能情報の中から、ユーザに提示する機能情報を1以上決定すること
    を特徴とするユーザアシストシステム。
  7. 前記提示手段は、前記ユーザのソフトウェア及びソフトウェアの機能の利用頻度に関する情報と各機能情報の連関度とを含むユーザ情報を参照すること
    を特徴とする請求項に記載のユーザアシストシステム。
  8. ユーザから入力されたテキストデータを取得する取得手段と、
    予め取得された1以上の単語を含む単語群を含む入力データとソフトウェアの機能に関する機能情報を含む出力データとの関係を示す選択モデルを参照し、前記取得手段により取得されたテキストデータに含まれる1以上の単語を含む単語群を含む入力データに対する前記機能情報を含む出力データを1以上選択する選択手段と、
    前記選択手段により選択された出力データに含まれる機能情報を前記ユーザに提示する提示手段とを備え
    前記取得手段は、前記ユーザに関するユーザ情報をさらに取得し、
    前記選択手段は、予め取得された単語群及びユーザ情報を含む入力データと機能情報を含む出力データとの関係を示す選択モデルを参照し、前記単語群及び前記取得手段により取得されたユーザ情報を含む入力データに対する前記機能情報を含む出力データを1以上選択すること
    を特徴とするユーザアシストシステム。
  9. 前記取得手段は、質問データに対するユーザの回答を示す回答データを取得し、当該回答データに基づいて、新たに質問データを生成することを複数回繰り返し、取得した複数の前記回答データを含むユーザ情報を取得すること
    を特徴とする請求項に記載のユーザアシストシステム。
  10. 前記取得手段は、前記ユーザのソフトウェア及びソフトウェアの機能の利用頻度に関する情報を含むユーザ情報を取得すること
    を特徴とする請求項又は請求項に記載のユーザアシストシステム。
  11. 前記提示手段は、前記機能情報をモニターの画面上において背面が可視可能なサイン、又は音声により前記ユーザに提示すること
    を特徴とする請求項1~10の何れか1項に記載のユーザアシストシステム。
  12. 前記取得手段は、前記ユーザから入力される音声を取得し、音声認識を用いて前記音声から前記テキストデータを取得すること
    を特徴とする請求項1~11の何れか1項に記載のユーザアシストシステム。
JP2021164763A 2021-10-06 2021-10-06 ユーザアシストシステム Active JP7038884B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021164763A JP7038884B1 (ja) 2021-10-06 2021-10-06 ユーザアシストシステム
US17/959,565 US20230103313A1 (en) 2021-10-06 2022-10-04 User assistance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021164763A JP7038884B1 (ja) 2021-10-06 2021-10-06 ユーザアシストシステム

Publications (2)

Publication Number Publication Date
JP7038884B1 true JP7038884B1 (ja) 2022-03-18
JP2023055405A JP2023055405A (ja) 2023-04-18

Family

ID=81213739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021164763A Active JP7038884B1 (ja) 2021-10-06 2021-10-06 ユーザアシストシステム

Country Status (2)

Country Link
US (1) US20230103313A1 (ja)
JP (1) JP7038884B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024072036A1 (ko) * 2022-09-30 2024-04-04 삼성전자 주식회사 음성인식 장치 및 음성인식 장치의 동작방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007015A (ja) 2000-06-22 2002-01-11 Sharp Corp 情報処理装置およびコンピュータ読み取り可能な記憶媒体
JP2011043894A (ja) 2009-08-19 2011-03-03 Casio Computer Co Ltd 電子機器、電子機器における音声出力制御方法、及び音声出力制御プログラムが記憶された記憶媒体
JP2017091205A (ja) 2015-11-10 2017-05-25 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2018120381A (ja) 2017-01-25 2018-08-02 株式会社日立ソリューションズ ソフトウェア素材選定支援装置及びソフトウェア素材選定支援プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535430A (ja) * 1991-08-01 1993-02-12 Matsushita Electric Ind Co Ltd 操作ガイド教授装置
JP3305219B2 (ja) * 1996-12-16 2002-07-22 シャープ株式会社 ヘルプ機能検索装置とヘルプ機能検索装置制御プログラムを記憶した媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007015A (ja) 2000-06-22 2002-01-11 Sharp Corp 情報処理装置およびコンピュータ読み取り可能な記憶媒体
JP2011043894A (ja) 2009-08-19 2011-03-03 Casio Computer Co Ltd 電子機器、電子機器における音声出力制御方法、及び音声出力制御プログラムが記憶された記憶媒体
JP2017091205A (ja) 2015-11-10 2017-05-25 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2018120381A (ja) 2017-01-25 2018-08-02 株式会社日立ソリューションズ ソフトウェア素材選定支援装置及びソフトウェア素材選定支援プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024072036A1 (ko) * 2022-09-30 2024-04-04 삼성전자 주식회사 음성인식 장치 및 음성인식 장치의 동작방법

Also Published As

Publication number Publication date
US20230103313A1 (en) 2023-04-06
JP2023055405A (ja) 2023-04-18

Similar Documents

Publication Publication Date Title
CN108647205B (zh) 细粒度情感分析模型构建方法、设备及可读存储介质
KR101634086B1 (ko) 감정 분석을 통한 스티커 추천 방법 및 시스템
JP3962763B2 (ja) 対話支援装置
US8332208B2 (en) Information processing apparatus, information processing method, and program
US20100153880A1 (en) Method system and apparatus for entering text on a computing device
KR101751113B1 (ko) 기억 능력을 이용하는 다중 사용자 기반의 대화 관리 방법 및 이를 수행하는 장치
CN109710935B (zh) 一种基于文物知识图谱的博物馆导览与知识推荐方法
KR20160089152A (ko) 화행 분석을 통한 스티커 추천 방법 및 시스템
JP6818706B2 (ja) 情報提供装置、情報提供方法、およびプログラム
JP2020191075A (ja) Web APIおよび関連エンドポイントの推薦
WO2010125709A1 (ja) 対話制御システム、方法及びコンピュータ可読記憶媒体、並びに、多次元オントロジー処理システム、方法及びコンピュータ可読記憶媒体
JP7096172B2 (ja) キャラクタ性に応じた形容発話を含む対話シナリオを生成する装置、プログラム及び方法
JP2006004399A (ja) 情報抽出プログラムおよびその記録媒体、情報抽出装置ならびに情報抽出規則作成方法
WO2016178337A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP6994289B2 (ja) キャラクタ属性に応じた対話シナリオを作成するプログラム、装置及び方法
JP2020135135A (ja) 対話コンテンツ作成支援方法およびシステム
JP7038884B1 (ja) ユーザアシストシステム
JP5345987B2 (ja) 文書検索装置、文書検索方法および文書検索プログラム
AU2013201012A1 (en) Information search program, information search apparatus, and information search method
JP6882975B2 (ja) 対話ログ群からコンテキストを決定可能な対話シナリオ生成装置、プログラム及び方法
WO2016151690A1 (ja) 文書検索装置、方法及びプログラム
JP5877775B2 (ja) コンテンツ管理装置、コンテンツ管理システム、コンテンツ管理方法、プログラム、及び記憶媒体
JP2004240859A (ja) 言い換えシステム
JP2004295578A (ja) 翻訳装置
WO2010103916A1 (ja) 文書の特徴語提示装置及び特徴語の優先度付与プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211006

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220308

R150 Certificate of patent or registration of utility model

Ref document number: 7038884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150