JP2021179821A - 情報処理装置及び宛先検索方法 - Google Patents

情報処理装置及び宛先検索方法 Download PDF

Info

Publication number
JP2021179821A
JP2021179821A JP2020084935A JP2020084935A JP2021179821A JP 2021179821 A JP2021179821 A JP 2021179821A JP 2020084935 A JP2020084935 A JP 2020084935A JP 2020084935 A JP2020084935 A JP 2020084935A JP 2021179821 A JP2021179821 A JP 2021179821A
Authority
JP
Japan
Prior art keywords
destination
search
name
voice
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020084935A
Other languages
English (en)
Inventor
祐介 御子柴
Yusuke Mikoshiba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2020084935A priority Critical patent/JP2021179821A/ja
Priority to US17/231,321 priority patent/US11769494B2/en
Publication of JP2021179821A publication Critical patent/JP2021179821A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • G06F40/157Transformation using dictionaries or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/163Handling of whitespace
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/081Search algorithms, e.g. Baum-Welch or Viterbi

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Facsimiles In General (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザー又は氏名情報の管理者の手間を要さず、かつ、会話フローのパフォーマンスを低下させずに、音声操作による宛先検索を精度良く行えるようにする。【解決手段】本発明の一側面の情報処理装置1の宛先検索部17は、音声処理サーバー3から出力されて通信部11が受信した指示が、氏名を検索文字列とした宛先の検索指示である場合、氏名及び氏名の宛先の情報が登録された宛先一覧123aの、氏名の姓名間にスペース文字が含まれる場合における該スペース文字を、検索の対象に含めるか否かを、発話言語情報に基づいて判定し、該判定の結果に基づいて、検索文字列に示される氏名を宛先一覧123aから検索する。【選択図】図2

Description

本発明は、情報処理装置及び宛先検索方法に関する。
従来、ユーザーにより発話された音声をテキストデータに変換して出力するスマートスピーカー等の音声入出力装置が知られており、該音声入出力装置と連携することにより、ユーザーによる音声操作を可能とした装置も増えている。
上述した装置には、音声操作により指示された氏名を検索文字列として、装置が扱う各種データの送信先である宛先を検索する機能を提供するものもある。例えば、ユーザーが発話する言語が英語である場合、音声入出力装置と連携された装置に対して送信されるテキストデータにおいては、“Search Tom Brown”のように、氏名の姓と名との間にスペース文字が入る。英語においては、文章を構成する各単語間にスペースが入るためである。
一方、ユーザーが発話する言語が日本語や韓国語、中国語などの言語である場合には、装置に送信されるテキストデータにおいて、姓名間にスペース文字は入らない。これらの言語においては、文章を構成する各単語間にスペースは入らないためである。したがって、発話言語が日本語や韓国語、中国語などである場合、検索の対象となる宛先一覧においては、姓名間にスペース文字が入った状態で氏名が登録されている場合であっても、“山田太郎で検索して”のように、姓名間にスペース文字が挿入されていないテキストデータが装置に送信されてしまう。
この場合、装置では、姓名間にスペース文字が含まれないテキストデータに示される氏名と、姓名間にスペース文字が含まれる宛先の登録名称とが比較されるため、本来であれば、「山田 太郎」等の該当する氏名が登録されているにもかかわらず、該当する氏名は存在しないと誤判定される現象が起こりうる。
例えば、特許文献1には、アドレス帳に登録されているエントリのうち、その「よみ」に、音声認識処理に得られた認識結果である第1検索タームを含み、かつ、その「名前」に、文字入力部で受け付けられる文字への仮名漢字変換処理によって得られた漢字である第2検索タームを含むものを抽出する技術が開示されている。
特開2010−147624号公報
しかしながら、特許文献1に記載の技術では、ユーザーは、音声入力部への音声入力の他に文字入力部への文字入力を行う必要があり、ユーザーの手間を要してしまう。なお、上述した、本来であれば該当する氏名が登録されているにもかかわらず、該当する氏名がないと判定されてしまう現象の発生を防ぐ手法としては、以下のような手法も考えられる。
(1)姓と名との間において「スペース」という単語を発話すること等によって、スペース文字の入力を明示的に指示することにより、発話言語が日本語である場合にも、検索に用いられる氏名の姓名間にスペースを入れられるようにする。
(2)宛先として指定される氏名及び宛先が管理される宛先一覧において、姓名間のスペース文字を削除して氏名を登録する。
(3)氏名における姓と名とを分離する、テキスト解析の仕組みを別途導入する。
しかしながら、(1)の手法を採用する場合、宛先検索を行うユーザーが検索の度にスペース入力を明示的に発話する必要があり、ユーザーの手間を要してしまう。また、(2)の手法を採用する場合、宛先名称の登録時に姓名間にスペース文字を挿入するか否かを、言語によって変更する必要があるため、多言語環境下でアドレス帳を管理することが難しくなる。また、(3)の手法を採用する場合、テキスト解析の時間が余分にかかるため、音声発話による検索指示から検索の実行完了までの間に、時間がかかってしまうことが考えられる。
本発明はこのような状況に鑑みてなされたものである。本発明の目的は、ユーザー又は宛先一覧の管理者の手間を要さず、かつ、会話フローのパフォーマンスを低下させずに、音声操作による宛先検索を精度良く行えるようにすることにある。
上記課題のうちの少なくとも1つを解決するため、本発明の一側面を反映した情報処理装置は、ユーザーの発話による指示をテキストデータに変換して出力する音声入出力装置から送信されたテキストデータを解析し、解析して得られた指示、及び、発話された言語を示す発話言語情報を出力する音声処理サーバーと接続される情報処理装置である。情報処理装置は、音声処理サーバーと通信を行う通信部と、音声処理サーバーから出力されて通信部が受信した指示が、氏名を検索文字列とした宛先の検索指示である場合、氏名及び氏名の宛先の情報が登録された宛先一覧の、氏名の姓名間にスペース文字が含まれる場合における該スペース文字を、検索の対象に含めるか否かを、発話言語情報に基づいて判定し、該判定の結果に基づいて、検索文字列に示される氏名を宛先一覧から検索する宛先検索部と、宛先検索部による宛先の検索結果を、通信部を介して音声処理サーバーに送信する制御を行う制御部と、を備える。
また、本発明の一側面を反映した宛先検索方法は、ユーザーの発話による指示をテキストデータに変換して出力する音声入出力装置から送信されたテキストデータを解析し、解析して得られた指示、及び、発話された言語を示す発話言語情報を出力する音声処理サーバーと接続される情報処理装置における宛先検索方法である。宛先検索方法は、音声処理サーバーから出力されて通信部が受信した指示が、氏名を検索文字列とした宛先の検索指示である場合、氏名及び氏名の宛先の情報が登録された宛先一覧の、氏名の姓名間にスペース文字が含まれる場合における該スペース文字を、検索の対象に含めるか否かを、発話言語情報に基づいて判定し、該判定の結果に基づいて、検索文字列に示される氏名を宛先一覧から検索する手順と、宛先の検索結果を、通信部を介して音声処理サーバーに送信する制御を行う手順と、を含む。
本発明によれば、ユーザー又は宛先一覧の管理者の手間を要さず、かつ、会話フローのパフォーマンスを低下させずに、音声操作による宛先検索を精度良く行うことができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第1の実施形態に係る画像処理システムの概要構成図である。 本発明の第1の実施形態に係る画像形成装置及び音声処理サーバーの制御系の構成例を示すブロック図である。 本発明の第1の実施形態に係る画像処理システムによる宛先検索処理の手順の例を示すシーケンス図である。 本発明の第1の実施形態に係る宛先検索部による宛先検索処理の手順の例を示すフローチャートである。 本発明の第2の実施形態に係る画像処理システムの概要構成図である。 本発明の第2の実施形態に係る画像処理システムによる宛先検索処理の手順の例を示すシーケンス図である。 本発明の第2の実施形態の変形例に係る画像処理システムによる宛先検索処理の手順の例を示すシーケンス図である。 本発明の第2の実施形態の変形例に係る宛先検索部による宛先検索依頼処理の手順の例を示すフローチャートである。
<第1の実施形態>
[画像処理システムの構成]
まず、図1を参照して、本発明の第1の実施形態に係る画像処理システムの構成について説明する。図1は、本発明の第1の実施形態に係る画像処理システム100の概要構成図である。
図1に示す画像処理システム100は、画像形成装置1(情報処理装置の一例)と、音声入出力装置2と、音声処理サーバー3と、を含む。音声入出力装置2及び音声処理サーバー3間、並びに、音声処理サーバー3及び画像形成装置1間は、公衆交換電話網やIP(Internet Protocol)網などよりなるネットワークNを介して接続される。
画像形成装置1は、例えば、コピー機能、プリンター機能、スキャナー機能等を有するMFP(Multi-Functional Peripherals)で構成される。画像形成装置1は、不図示の端末装置等から送信された画像データに基づいて用紙に画像形成を行い、該画像が形成された用紙を印刷物として出力する。また、画像形成装置1は、スキャナー機能で読み取ったスキャンデータ等を、音声入出力装置2への音声操作や操作表示部13(図2参照)への操作による指示によって特定された宛先に送信することも行う。
音声入出力装置2は、例えば、スマートスピーカーで構成され、不図示のマイクロフォン及びスピーカーを備える。音声入出力装置2は、マイクロフォンが集音した音声、例えば、ユーザーによって発話された指示をテキストデータに変換し、該テキストデータを音声処理サーバー3に送信する。このとき、音声入出力装置2は、テキストデータの送信時に、起動ワードの受付時に判定した発話言語(日本語、英語等)の情報(以下、「発話言語情報」とも称する)も、音声処理サーバー3に送信する。また、音声入出力装置2は、音声処理サーバー3から送信される音声情報を再生して、スピーカーから放音する。
音声処理サーバー3は、例えば、不図示のクラウド上に設けられ、その機能はクラウドアプリケーションサービスとして提供される。音声処理サーバー3は、音声入出力装置2から送信されたテキストデータに対して構文解析を行い、音声解析処理の結果に対応する画像形成装置1への指示を、画像形成装置1に送信する。音声解析処理の結果に対応する画像形成装置1への指示には、音声入出力装置2から送信されたテキストデータに含まれる氏名を検索文字列とした宛先の検索指示がある。
なお、本実施形態では、音声処理サーバー3がクラウド上に設けられる例を挙げたが、本発明はこれに限定されない。音声処理サーバー3は、画像形成装置1内に設けられてもよく、不図示のオンプレミスサーバー等の内部に設けられてもよい。また、音声処理サーバー3と画像形成装置1との間に、ジョブに関する音声情報を音声処理サーバー3から受信して保存したり、画像形成装置1にジョブを渡したりする処理を行う中継サーバー等が設けられてもよい。
[画像形成装置及び音声処理サーバーの制御系の構成]
次に、図2を参照して、画像形成装置1及び音声処理サーバー3の制御系の構成について説明する。図2は、画像形成装置1及び音声処理サーバー3の制御系の構成例を示すブロック図である。
〔画像形成装置の制御系の構成〕
まず、画像形成装置1の制御系の構成の説明を行う。図2に示すように、画像形成装置1は、通信I/F(Interface)部11と、制御部12と、操作表示部13と、画像読取部14と、画像処理部15と、画像形成部16と、宛先検索部17と、を含む。
通信I/F部11(通信部の一例)は、ネットワークNを介して接続される音声処理サーバー3との間で行われる各種データの送受信動作を制御する。
制御部12は、CPU(Central Processing Unit)120と、RAM(Random Access Memory)121と、ROM(Read Only Memory)122と、記憶部123と、を含む。
CPU120は、ROM122に記憶されているシステムプログラムや画像形成処理プログラム、宛先検索プログラムなどの各種処理プログラムを読み出してRAM121に展開し、展開したプログラムに従って画像形成装置1の各部の動作を制御する。例えば、CPU120は、音声処理サーバー3から入力される指示に基づいて、画像形成装置1が有する音声処理機能(図示略)を起動させ、音声処理機能を実現する各部に対して、音声操作に基づく各種指示を実行させる。
具体的には、音声処理サーバー3から入力される指示が、スキャンデータの送信先の宛先の検索指示である場合、CPU120は、音声処理機能を実現する宛先検索部17に対して、音声で入力された氏名を、宛先一覧123aを対象として検索させる制御を行う。また、CPU120は、検索結果が見つかった場合には、該検索結果を、通信I/F部11を介して音声処理サーバー3に送信する制御も行う。さらに、CPU120は、検索結果の宛先へのスキャンデータの送信制御も行う。
RAM121は、CPU120がプログラムを実行する為に必要なデータや画像データ(スキャン画像データ、プリント画像データ、仕上がりプレビュー画像データ)などを、一時的に記憶する。
ROM122は、半導体メモリ等の不揮発性メモリ等により構成され、画像形成装置1に対応するシステムプログラム、及び、該システムプログラム上で実行可能な各種プログラム等を記憶する。ROM122に記憶されたプログラムは、コンピュータが読取り可能なプログラムコードの形態で格納され、CPU120は、当該プログラムコードに従った動作を逐次実行する。
記憶部123は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などにより構成され、画像形成装置1に係る各種の設定データや画像データ、宛先として検索される氏名及び宛先の情報が格納された宛先一覧123aなどを記憶する。宛先一覧123aでは、ユーザーの氏名の情報と、メールアドレス又は電話番号等の宛先の情報とが対応付けて管理される。
操作表示部13は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)等よりなる表示部と、タッチセンサ等よりなる操作入力部とが一体に形成されたタッチパネルとして構成される。操作表示部13の表示部には、例えば、コピーやスキャン、印刷などの各種ジョブに関する設定を行う設定画面等が表示される。
なお、本実施形態では、表示部及び操作入力部が操作表示部13として一体に形成される例を挙げたが、本発明はこれに限定されない。表示部と、キーボードやマウス等よりなる操作入力部とが、それぞれ別々に構成されてもよい。または、タッチパネルとして構成された操作表示部13に加えて、キーボードやマウス等よりなる操作入力部を備える構成としてもよい。
画像読取部14は、不図示の原稿台上に載置された原稿から画像データを光学的に読み取る。画像読取部14は、CCD(Charge Coupled Devices)又はCMOS(Complementary Metal Oxide Semiconductor)等よりなるイメージセンサ、該イメージセンサによる走査を制御する走査制御(いずれも図示略)等を備える。イメージセンサは、不図示の光源から照射されて原稿から反射された光を受光して、該光を電気信号に変換する。走査制御部は、イメージセンサの動作の制御や、イメージセンサから出力される電気信号の処理等を行う。
画像処理部15は、不図示の端末装置から送信された画像データに対して、色調整、濃度調整、コントラスト調整、配色変換、画像のサイズ調整、画像中の文字幅の調整などの各種画像処理を行う。
画像形成部16は、画像処理部15で画像処理された画像データに基づいて用紙に画像形成を行い、該画像が形成された用紙を印刷物として出力する。画像形成部16は、帯電装置と、感光ドラムと、露光装置と、転写ベルトと、定着装置(いずれも図示略)と、を備える。
そして、画像形成部16は、まず、帯電装置により帯電された感光体ドラムに対して、露光装置から画像に応じた光を照射させることにより、感光ドラムの周上に静電潜像を形成させる。次いで、画像形成部16は、現像装置から感光体にトナーを供給させることにより、帯電した静電潜像上にトナーを付着させてトナー像を現像させる。次いで、画像形成部16は、トナー像を転写ベルトに1次転写させるとともに、転写ベルトに転写されたトナー像をから用紙に2次転写させ、さらに、定着装置に、用紙上に転写されたトナー像を用紙に定着させる。
なお、本実施形態では、画像形成部16が電子写真方式を用いて画像形成を行う例を挙げたが、本発明はこれに限定されない。本発明の画像処理システム、画像形成装置では、インクジェット方式等の他の方式で画像形成を行う画像形成部が用いられてもよい。
宛先検索部17は、画像形成装置1の音声処理機能の一つを担う部であり、音声処理サーバー3から送信された検索文字列に示される氏名を、宛先一覧123aから検索する。具体的には、宛先検索部17は、検索文字列とともに送信される発話言語情報に基づいて、宛先一覧123aに登録された氏名の姓と名との間にあるスペース文字を含めて宛先検索を行うか、含めずに宛先検索を行うかを判定し、該判定の結果に基づいて氏名の検索を行う。
例えば、発話言語情報において、発話言語が、発話音声における姓名間にスペースが入らない言語であることが示されている場合であって、宛先一覧123aに登録された氏名の姓名間にはスペースが入っている場合、宛先検索部17は、宛先一覧123aにおける姓名間のスペースを無視して検索文字列の検索を行う。発話音声における姓名間にスペースが入らない言語には、例えば、日本語、韓国語、中国語等がある。
一方、発話言語情報において、発話言語が、発話音声における姓名間にスペースが入る言語であることが示されている場合、宛先検索部17は、宛先一覧123aにおける姓名間のスペースを含めて検索文字列の検索を行う。発話音声における姓名間にスペースが入る言語には、例えば、英語、フランス語、ドイツ語等がある。
また、宛先検索部17は、宛先の検索指示が、操作表示部13を介して入力された場合、宛先一覧123aに登録された氏名の姓名間のスペース文字を含めて、指定された氏名を検索する。
〔音声処理サーバーの制御系の構成〕
次に、同じく図2を参照して、音声処理サーバー3の制御系の構成について説明する。図2に示すように、音声処理サーバー3は、制御部31と、通信I/F部32と、構文解析部33と、を含む。
制御部31は、CPU310と、RAM311と、ROM312と、記憶部313と、を含む。
CPU310は、ROM312に記憶されているシステムプログラムや音声処理プログラムなどの各種処理プログラムを読み出してRAM311に展開し、展開したプログラムに従って音声処理サーバー3の各部の動作を制御する。
例えば、CPU310は、音声入出力装置2からテキストデータが送信された場合に、該テキストデータを構文解析部33に解析させたり、構文解析部33で解析して得られた各種指示を、通信I/F部32を介して画像形成装置1に送信させたりする制御を行う。
RAM311は、CPU310により実行される各種プログラム及びこれらプログラムに係るデータを一時的に記憶するワークエリアを形成する。
ROM312は、半導体メモリ等の不揮発性メモリ等により構成され、音声処理サーバー3に対応するシステムプログラム、及び、該システムプログラム上で実行可能な音声処理プログラム等を記憶する。これらのプログラムは、コンピュータが読取り可能なプログラムコードの形態で格納され、CPU310は、当該プログラムコードに従った動作を逐次実行する。
記憶部313は、HDDやSSDなどにより構成され、音声処理サーバー3に係る各種の設定データや、構文解析部33による音声解析結果と対応付けられた、画像処理のジョブに関する指示等を記憶する。
通信I/F部32は、ネットワークNを介して接続される音声入出力装置2との間で行われる各種データの送受信動作を制御する。
構文解析部33は、音声入出力装置2から送信されるテキストデータを構文解析して、解析結果に対応する指示、例えば、宛先検索指示や各種設定項目の設定指示、ジョブの開始指示などを記憶部313から読み出し、制御部31に出力する。
[画像処理システムによる宛先検索処理]
次に、図3を参照して、画像処理システム100による宛先検索処理の手順について説明する。図3は、画像処理システム100による宛先検索処理の手順の例を示すシーケンス図である。
まず、ユーザーから音声入出力装置2に対して、「MFPでスキャンして」と発話することにより音声操作が入力される(ステップS1)。次いで、音声入出力装置2において、ステップS1で入力された指示の内容が判定される(ステップS2)。ステップS2では、音声入出力装置2は、ユーザーが発話した言語(発話言語)と、音声操作に基づいて起動すべき画像形成装置1内の機能の種類と、機能の起動後に画像形成装置1が行うべき処理と、を判定する。なお、発話言語の判定は、ステップS1に先だってユーザーにより入力される起動ワードに基づいて行う。
例えば、音声入出力装置2は、発話言語は“Ja−JP”(日本語)であり、起動すべき機能は“音声処理機能”であり、音声処理機能の起動後に行う処理は“スキャン”であると判定する。
次いで、音声入出力装置2は、音声処理サーバー3に対して、音声処理機能の起動指示を送信する(ステップS3)。ステップS3では、音声入出力装置2は、音声処理機能の起動指示として、ステップS2で判定した指示の内容(発話言語情報、起動すべき画像形成装置1内の機能の種類、機能の起動後に画像形成装置1が行うべき処理)も送信する。
次いで、音声処理サーバー3の制御部31(図2参照)は、ステップS3で音声入出力装置2から送信された音声処理機能の起動指示を、通信I/F部32を介して、画像形成装置1に送信する(ステップS4)。次いで、画像形成装置1の制御部12は、音声処理機能を実現する宛先検索部17を起動するとともに、操作表示部13に、スキャンの操作を行うためのスキャン画面を表示させる(ステップS5)。
次いで、画像形成装置1の制御部12は、通信I/F部11を介して音声処理サーバー3に、起動結果を通知する(ステップS6)。次いで、音声処理サーバー3の制御部31は、ステップS6で送信された起動結果に基づくレスポンス文を生成する(ステップS7)。具体的には、音声処理サーバー3の制御部31は、ステップS7で、スキャン画面の起動後にユーザーに通知すべき音声アナウンスの文章を生成する。
次いで、音声処理サーバー3の制御部31は、ステップS7で生成したレスポンス文を、通信I/F部32を介して音声入出力装置2に送信する(ステップS8)。次いで、音声入出力装置2は、ステップS8で音声処理サーバー3から送信されたレスポンス文に対応する音声(「スキャン宛先を設定して下さい」)を不図示のスピーカーから出力する(ステップS9)。
次いで、ユーザーから音声入出力装置2に対して、「山田太郎で検索して」と発話することにより音声操作が入力される(ステップS10)。次いで、音声入出力装置2は、ステップS10でユーザーから入力された音声を認識するとともに、認識結果を表すテキストデータを生成する(ステップS11)。次いで、音声入出力装置2は、ステップS12で生成したテキストデータと、発話言語情報と、を、音声処理サーバー3に送信する(ステップS12)。具体的には、音声入出力装置2は、“山田太郎で検索して”というテキストデータと、“Ja−JP”という発話言語情報と、を、音声処理サーバー3に送信する。
次いで、音声処理サーバー3の構文解析部33は、ステップS12で音声入出力装置2から送信されたテキストデータを構文解析する(ステップS13)。次いで、音声処理サーバー3の制御部31は、ステップS13で行った構文解析の結果に基づいて、画像形成装置1に対するリクエスト文を生成する(ステップS14)。具体的には、音声処理サーバー3の制御部31は、以下のようなリクエスト文を生成する。
Request{job id:“1111”, action:“Search”, data“山田太郎”,language:“ja-JP”}
上記リクエスト文において、「job id」は、音声処理のジョブに対して自動的に割り振られるジョブのIDであり、「action:“Search”」は、画像形成装置1が実行すべきアクションが「宛先検索」であることを示す。また、「data:“山田太郎”」は、宛先検索の検索文字列は「山田太郎」であることを示し、「language:“ja-JP”」は、発話言語が日本語であることを示す。
次いで、音声処理サーバー3の制御部31は、通信I/F部32を介して画像形成装置1に、ステップS14で生成したリクエスト文を送信する(ステップS15)。次いで、画像形成装置1の宛先検索部17は、ステップS15で音声処理サーバー3から送信されたリクエスト文に基づいて、宛先検索処理を実行する(ステップS16)。宛先検索部17による宛先検索処理については、次の図4を参照して詳述する。
次いで、画像形成装置1の制御部12は、ステップS16の宛先検索処理による検索結果を、通信I/F部11を介して、音声処理サーバー3に送信する(ステップS17)。次いで、音声処理サーバー3の制御部31は、ステップS17で画像形成装置1から送信された検索結果に基づいて、レスポンス文を生成する(ステップS18)。
次いで、音声処理サーバー3の制御部31は、通信I/F部32を介して、ステップS18で生成したレスポンス文を音声入出力装置2に送信する(ステップS19)。次いで、音声入出力装置2は、ステップS19で音声処理サーバー3から送信されたレスポンス文に対応する音声(「山田太郎で宛先が1件見つかりました。宛先に設定しますか?」)を、不図示のスピーカーから出力する(ステップS20)。そして、画像形成装置1の制御部12は、操作表示部13の画面に、検索結果を表示する(ステップS21)。
[画像処理システムによる宛先検索処理]
次に、図4を参照して、画像形成装置1の宛先検索部17による宛先検索処理について説明する。図4は、宛先検索部17による宛先検索処理の手順の例を示すフローチャートである。
まず、宛先検索部17は、ユーザーの発話言語は、発話音声における姓名間にスペースが入らない言語であるか否かを判定する(ステップS31)。ステップS31で、発話音声における姓名間にスペースが入らない言語(例えば、日本語等)であると判定された場合(ステップS31がYES判定の場合)、宛先検索部17は、宛先一覧123a(図2参照)において姓名間に設けられたスペースを無視して検索を実行する(ステップS32)。スペースの無視は、例えば、スペース部分にフィルタを掛ける処理等を行うことにより実現可能である。
一方、ステップS32において、発話音声における姓名間にスペースが入る言語(例えば、英語等)であると判定された場合(ステップS31がNO判定の場合)、宛先検索部17は、そのまま宛先の検索を実行する(ステップS33)。
上述した実施形態では、宛先検索部17は、宛先一覧123aにおいて姓名間にスペースが入っており、かつ、発話音声の解析結果であるテキストデータにおいて姓名間にスペースが入っていない場合であっても、宛先検索を行うことができる。同様に、宛先一覧123aにおいて姓名間にスペースが入っており、かつ、発話音声の解析結果であるテキストデータにおいても姓名間にスペースが入っている場合においても、宛先検索を行うことができる。すなわち、本実施形態によれば、音声操作による宛先検索を精度良く行えるようになる。
したがって、本実施形態によれば、ユーザーに、「スペース」という単語の発話等によって、スペース文字の入力を明示的に指示させたり、宛先一覧123aにおける氏名の登録形態を言語に応じて異ならせたり、氏名における姓名間を分離するテキスト解析の仕組みを別途導入する必要がなくなる。それゆえ、本実施形態によれば、ユーザー、又は、氏名情報を管理する管理者の手間を要さず、かつ、会話フローのパフォーマンスを低下させずに、音声操作による宛先検索を行えるようになる。
<第2の実施形態>
[画像処理システムの構成]
次に、図5を参照して、本発明の第2の実施形態に係る画像処理システムの構成について説明する。図5は、本発明の第2の実施形態に係る画像処理システム100Aの概要構成図である。
図5に示す画像処理システム100Aは、画像形成装置1Aと、音声入出力装置2と、音声処理サーバー3と、LDAP(Lightweight Directory Access Protocol)サーバー4と、を含む。画像形成システム100を構成する各装置(サーバー)間は、公衆交換電話網やIP網などよりなるネットワークNを介して接続される。音声入出力装置2及び音声処理サーバー3は、図1に示したものと同様であるため、ここではこれらの説明は省略する。
LDAPサーバー4(宛先一覧管理サーバーの一例)は、画像形成装置1を使用するユーザーの氏名や宛先等を格納した宛先一覧(図示略)を、ディレクトリサービスを利用して管理するサーバーである。本実施形態では、画像形成装置1Aは宛先一覧123a(図2参照)を持たず、宛先一覧は、LDAPサーバー4において管理される。そして、画像形成装置1Aは、予め定められた所定のタイミングの到来時等に、LDAPサーバー4に対して宛先一覧の取得依頼を行い、LDAPサーバー4から送信された宛先一覧を、宛先一覧保存領域(図示略)に一時的に格納する。宛先一覧保存領域は、例えば、RAM121又は記憶部123内等に形成される。
画像形成装置1Aは、ユーザーによって宛先検索を指示する音声操作が行われた場合、宛先一覧保存領域に保存された宛先一覧にある氏名を検索し、検索結果の氏名が見つかった場合には、該氏名を宛先として、スキャンデータ等を送信する。画像形成装置1Aは、宛先一覧123aの代わりに、宛先一覧保存領域を持つこと以外は、図1に示した画像形成装置1と同一であるため、ここでは画像形成装置1Aの説明は省略する。なお、図5に示す例では、宛先一覧保存領域が画像形成装置1A内に設けられる例を挙げたが、本発明はこれに限定されない。宛先一覧保存領域は、画像形成装置1Aと接続される不図示の外部サーバー内に設けられてもよい。
[画像処理システムによる宛先検索処理]
次に、図6を参照して、画像処理システム100Aによる宛先検索処理の手順について説明する。図6は、画像処理システム100Aによる宛先検索処理の手順の例を示すシーケンス図である。
まず、ユーザーからの音声操作によって、もしくは、予め定められた所定のタイミングの到来時に、画像形成装置1Aの宛先検索部17の起動が指示される(ステップS41)。次いで、画像形成装置1Aの宛先検索部17が起動する(ステップS42)。ステップS41の処理が行われる、予め定められた所定のタイミングとしては、例えば、毎日何時など、ユーザーによる音声操作に基づいて行われる音声処理のフローに影響を及ぼさない時刻が設定される。もしくは、画像形成装置1で何かしらの処理が行われているバックグラウンドで、宛先検索部17の起動及び宛先一覧の取得処理が行われてもよい。
次いで、画像形成装置1Aの制御部12は、通信I/F部11を介してLDAPサーバー4に、宛先一覧取得要求を送信する(ステップS43)。次いで、LDAPサーバー4から画像形成装置1Aに対して、宛先一覧が送信される(ステップS44)。次いで、画像形成装置1Aの制御部12は、ステップS44で送信された宛先一覧を、記憶部123の宛先一覧保存領域に格納する(ステップS45)。宛先一覧の取得処理の終了後は、宛先検索部17の動作は停止される。
ステップS46〜ステップS60までの各処理は、図3のステップS1〜ステップS15までの各処理と同一であるため、ここではこれらの説明は省略する。ステップS60で、宛先の検索を指示するリクエスト文が音声処理サーバー3から画像形成装置1Aに送信されると、画像形成装置1Aの宛先検索部17は、該リクエスト文に基づいて、宛先検索処理を実行する(ステップS61)。
ステップS61で行う宛先検索処理は、図4に示した処理と同一である。すなわち、宛先検索部17は、ユーザーの発話言語が、発話音声における姓名間にスペースが入らない言語である場合には、宛先一覧において姓名間に設けられたスペースを無視して検索を実行する。一方、ユーザーの発話言語が、発話音声における姓名間にスペースが入る言語である場合には、そのまま宛先の検索を実行する。
ステップS61では、宛先検索部17は、ステップS45で宛先一覧保存領域に格納した宛先一覧にある氏名を検索する。ステップS62〜ステップS66の処理は、図3のステップS17〜ステップS21の処理と同一であるため、ここでは処理を省略する。
上述した第2の実施形態に示されるように、宛先一覧がLDAPサーバー4で管理される場合、通常であれば、宛先一覧の検索において行われる氏名の照合は、LDAPサーバー4における氏名の照合規則に依存する。したがって、宛先一覧における姓名間のスペースを無視して検索を行ったりする処理は実行できず、該当する氏名が登録されているにもかかわらず、該当する氏名がないと判定されてしまう現象が起こりうる。
しかしながら、上述した第2の実施形態では、宛先の検索処理は、LDAPサーバー4ではなく、画像形成装置1Aにおいて行われる。より具体的には、画像形成装置1Aが、LDAPサーバー4から取得した宛先一覧を対象として、宛先の検索を行う。したがって、本実施形態によれば、宛先の検索時における、LDAPサーバー4の照合規則への依存性を絶つことができるため、宛先一覧における氏名の登録形態に合わせた検索を実行できる。それゆえ、本実施形態によれば、宛先の検索を精度良く行うことが可能となる。
また、本実施形態においても、上述した第1の実施形態と同様に、ユーザー又は氏名情報の管理者の手間を要さず、かつ、会話フローのパフォーマンスを低下させずに、音声操作による宛先検索を行うことができる。
<第2の実施形態の変形例>
次に、図7及び図8を参照して、本発明の第2の実施形態の変形例に係る画像処理システム100Aによる宛先検索処理について説明する。図7は、画像処理システム100Aによる宛先検索処理の手順の例を示すシーケンス図であり、図8は、宛先検索部17による宛先検索依頼処理の手順の例を示すフローチャートである。第2の実施形態の変形例では、画像形成装置1の宛先検索部17は、宛先の検索時に、LDAPサーバー4に対して照合規則の一時的な変更依頼を行った上で、宛先の検索を依頼する。
[画像処理システムによる宛先検索処理]
まず、図7を参照して、画像処理システム100Aによる宛先検索処理について説明する。図7のステップS71〜ステップS75までの各処理は、図3のステップS1〜ステップS5までの各処理と同一であるため、ここではこれらの説明は省略する。ステップS75で、宛先検索部17が起動されて、操作表示部13(図5参照)にスキャン画面が表示されると、画像形成装置1Aの制御部12は、LDAPサーバー4に対して、現在の照合規則設定の取得要求を行う(ステップS76)。
次いで、LDAPサーバー4から画像形成装置1Aに対して、現在の照合規則設定が送信される(ステップS77)。次いで、画像形成装置1Aの制御部12は、記憶部123等に、ステップS77で受信した照合規則設定を保存する(ステップS78)。
ステップS79〜ステップS88までの各処理は、図3のステップS6〜ステップS15までの各処理と同一であるため、ここではこれらの説明は省略する。ステップS88で、宛先の検索を指示するリクエスト文が音声処理サーバー3から画像形成装置1Aに送信されると、画像形成装置1Aの宛先検索部17は、該リクエスト文に基づいて、宛先検索依頼処理を実行する(ステップS89)。ステップS89で行う宛先検索依頼処理については、次の図8を参照して説明する。
次いで、画像形成装置1Aの宛先検索部17は、LDAPサーバー4に対して、宛先検索の実行を依頼する(ステップS90)。次いで、LDAPサーバー4から画像形成装置1Aに対して、宛先の検索結果が送信される(ステップS91)。次いで、画像形成装置1Aの制御部12は、LDAPサーバー4に対して、照合規則設定の復元を依頼する(ステップS92)。次いで、画像形成装置1Aの制御部12は、ステップS91でLDAPサーバー4から受信した検索結果を、通信I/F部11を介して音声処理サーバー3に送信する(ステップS93)。
ステップS93以降は、図3のステップS18〜ステップS21の各処理が行われる。すなわち、音声処理サーバー3で、検索結果に応じたレスポンス文が生成され、該レスポンス文が音声入出力装置2に送信される。次いで、音声入出力装置2からユーザーに対して、レスポンス文に応じた音声が出力されるとともに、画像形成装置1Aの操作表示部13の画面に、検索結果が表示される。
[宛先検索部による宛先検索依頼処理]
次に、図8を参照して、図7のステップS90で行われる宛先検索部17による宛先検索依頼処理について説明する。まず、画像形成装置1Aの宛先検索部17は、ユーザーの発話言語は、発話音声における姓名間にスペースが入らない言語であるか否かを判定する(ステップS101)。ステップS101で、発話音声における姓名間にスペースが入らない言語(例えば、日本語等)であると判定された場合(ステップS101がYES判定の場合)、宛先検索部17は、姓名間に設けられたスペースを無視して検索を行う照合規則に変更するよう、LDAPサーバー4に依頼する(ステップS102)。
ステップS102の処理後、又は、ステップS101において、ユーザーの発話音声における姓名間にスペースが入る言語(例えば、英語等)であると判定された場合(ステップS101がNO判定の場合)、宛先検索部17は、LDAPサーバー4に宛先の検索の実行を依頼する(ステップS103)。
上述した第2の実施形態の変形例では、ユーザーの発話言語が、発話音声における姓名間にスペースが入らない言語である場合に、画像形成装置1Aの宛先検索部17はLDAPサーバー4に対して、姓名間のスペースを無視した検索を行う照合規則への変更依頼を行い、その後、変更後の照合規則を用いた宛先の検索の実行を依頼する。それゆえ、本変形例によれば、第2の実施形態と同様の効果を得ることができる。
また、本変形例では、LDAPサーバー4から宛先の検索結果が送信された後すぐに、画像形成装置1Aの制御部12g、LDAPサーバー4に対して、照合規則設定の復元を依頼する。それゆえ、本変形例によれば、LDAPサーバー4における照合規則設定の変更期間を、音声操作に基づく処理が行われている間のみに限定できるため、LDAPサーバー4を使用する他のシステムに影響を及ぼしてしまうことを防ぐことができる。
<各種変形例>
なお、本発明は上述した実施形態に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、その他種々の応用例、変形例を取り得る。
また、上述した各実施形態及び変形例では、音声入出力装置2としてスマートスピーカーが用いられる例を挙げたが、本発明はこれに限定されない。音声入出力装置2として、携帯電話端末やスマートフォンなどの携帯端末装置が用いられてもよい。
さらに、上述した各実施形態及びその変形例では、情報処理装置を、画像形成装置1に適用した例を挙げたが、本発明はこれに限定されない。本発明の情報処理装置は、画像形成を行わないプリンタコントローラや、PC(Personal Computer)などの装置に適用されてもよい。
1、1A…画像形成装置、2…音声入出力装置、3…音声処理サーバー、4…LDAPサーバー、11…通信I/F部、12…制御部、17…宛先検索部、31…制御部、33…構文解析部、100、100A…画像処理システム、123a…宛先一覧

Claims (7)

  1. ユーザーの発話による指示をテキストデータに変換して出力する音声入出力装置から送信された前記テキストデータを解析し、解析して得られた指示、及び、前記発話された言語を示す発話言語情報を出力する音声処理サーバーと接続される情報処理装置であって、
    前記音声処理サーバーと通信を行う通信部と、
    前記音声処理サーバーから出力されて前記通信部が受信した前記指示が、氏名を検索文字列とした宛先の検索指示である場合、前記氏名及び前記氏名の宛先の情報が登録された宛先一覧の、前記氏名の姓名間にスペース文字が含まれる場合における該スペース文字を、前記検索の対象に含めるか否かを、前記発話言語情報に基づいて判定し、該判定の結果に基づいて、前記検索文字列に示される氏名を前記宛先一覧から検索する宛先検索部と、
    前記宛先検索部による前記宛先の検索結果を、前記通信部を介して前記音声処理サーバーに送信する制御を行う制御部と、を備える
    情報処理装置。
  2. 前記宛先検索部は、前記発話言語情報に示される言語が、発話音声における姓名間にスペースが入らない言語であり、前記宛先一覧に登録された前記氏名の姓名間にスペース文字が含まれる場合、前記スペース文字を無視して前記検索文字列に示される氏名を検索する
    請求項1に記載の情報処理装置。
  3. 前記宛先検索部は、前記発話言語情報に示される言語が、発話音声における姓名間にスペースが入る言語であり、前記宛先一覧に登録された前記氏名の姓名間にスペース文字が含まれる場合、前記スペース文字を含めて前記検索文字列に示される前記氏名を検索する
    請求項2に記載の情報処理装置。
  4. ユーザーによる指示が入力される操作入力部をさらに備え、
    前記宛先検索部は、前記宛先の検索指示が、前記操作入力部を介して入力された場合であって、前記宛先一覧に登録された前記氏名の姓名間にスペース文字が含まれる場合、前記スペース文字を含めて前記検索文字列に示される氏名を検索する
    請求項3に記載の情報処理装置。
  5. ディレクトリサービスを用いて前記宛先一覧を管理する宛先一覧管理サーバーをさらに備え、
    前記制御部は、所定のタイミングで前記宛先一覧管理サーバーから前記宛先一覧を取得して、該宛先一覧を自装置内又は自装置と接続された外部サーバーの宛先一覧保存領域に一時的に保存し、
    前記宛先検索部は、前記検索文字列に示される氏名を、前記宛先一覧保存領域に保存された前記宛先一覧から検索する
    請求項1〜4のいずれか一項に記載の情報処理装置。
  6. 前記宛先検索部は、前記検索文字列に示される氏名の検索時に、前記宛先一覧管理サーバーに対して、該宛先一覧管理サーバーで用いられている前記検索文字列に示される氏名の照合規則を一時的に変更した上で前記氏名の検索を行うよう依頼し、
    前記照合規則の一時的な変更は、前記発話言語情報に示される言語が、発話音声における姓名間にスペースが入らない言語である場合には、前記宛先一覧に登録された前記氏名の姓名間に含まれるスペースを無視して検索を行うという変更である
    請求項5に記載の情報処理装置。
  7. ユーザーの発話による指示をテキストデータに変換して出力する音声入出力装置から送信された前記テキストデータを解析し、解析して得られた指示、及び、前記発話された言語を示す発話言語情報を出力する音声処理サーバーと接続される情報処理装置における宛先検索方法であって、
    前記音声処理サーバーから出力された前記指示が、氏名を検索文字列とした宛先の検索指示である場合、前記氏名及び前記氏名の宛先の情報が登録された宛先一覧の、前記氏名の姓名間にスペース文字が含まれる場合における該スペース文字を、前記検索の対象に含めるか否かを、前記発話言語情報に基づいて判定し、該判定の結果に基づいて、前記検索文字列に示される氏名を前記宛先一覧から検索する手順と、
    前記宛先の検索結果を前記音声処理サーバーに送信する制御を行う手順と、を含む
    宛先検索方法。
JP2020084935A 2020-05-14 2020-05-14 情報処理装置及び宛先検索方法 Pending JP2021179821A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020084935A JP2021179821A (ja) 2020-05-14 2020-05-14 情報処理装置及び宛先検索方法
US17/231,321 US11769494B2 (en) 2020-05-14 2021-04-15 Information processing apparatus and destination search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020084935A JP2021179821A (ja) 2020-05-14 2020-05-14 情報処理装置及び宛先検索方法

Publications (1)

Publication Number Publication Date
JP2021179821A true JP2021179821A (ja) 2021-11-18

Family

ID=78511565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020084935A Pending JP2021179821A (ja) 2020-05-14 2020-05-14 情報処理装置及び宛先検索方法

Country Status (2)

Country Link
US (1) US11769494B2 (ja)
JP (1) JP2021179821A (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147624A (ja) 2008-12-17 2010-07-01 Konica Minolta Business Technologies Inc 通信装置、検索処理方法および検索処理プログラム
US10614487B1 (en) * 2017-06-04 2020-04-07 Instreamatic, Inc. Server for enabling voice-responsive content as part of a media stream to an end user on a remote device
WO2018226606A1 (en) * 2017-06-04 2018-12-13 Instreamatic, Inc. Server for enabling voice-responsive content as part of a media stream to an end user on a remote device
JP7143630B2 (ja) * 2018-05-23 2022-09-29 コニカミノルタ株式会社 ジョブ履歴特定装置、画像処理装置、サーバー、ジョブ履歴特定方法及びプログラム
JP2021081875A (ja) * 2019-11-15 2021-05-27 株式会社リコー 情報処理システム、情報処理方法、情報処理装置及び出力装置

Also Published As

Publication number Publication date
US11769494B2 (en) 2023-09-26
US20210358485A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US10917369B2 (en) Information processing apparatus, information processing system, and information processing method
US7797150B2 (en) Translation system using a translation database, translation using a translation database, method using a translation database, and program for translation using a translation database
US11211069B2 (en) Information processing system, information processing method, and non-transitory recording medium
US20200177747A1 (en) Information processing system, method of processing information and storage medium
JP2001014134A (ja) ネットワークシステム、ネットワークシステムにおけるサーバ及び装置
JP2020087376A (ja) 情報処理装置、情報処理システム、および方法
US12015746B2 (en) Image processing system, setting control method, image processing apparatus, and storage medium
US20230388427A1 (en) Image processing system, image processing apparatus, and image processing method
CN111327780A (zh) 图像处理系统、图像形成装置、判定方法以及程序
US11792338B2 (en) Image processing system for controlling an image forming apparatus with a microphone
JP2008197229A (ja) 音声認識辞書構築装置及びプログラム
US20210382883A1 (en) Information processing apparatus, term search method, and program
JP2021179821A (ja) 情報処理装置及び宛先検索方法
US11647129B2 (en) Image forming system equipped with interactive agent function, method of controlling same, and storage medium
JP7375409B2 (ja) アドレス検索システム及びプログラム
JP7218192B2 (ja) 画像形成装置
US11700338B2 (en) Information processing system that receives audio operations on multifunction peripheral, as well as image processing apparatus and control method therefor
US11647130B2 (en) Information processing system capable of connecting a plurality of voice control devices, method of controlling information processing system, and storage medium
JP2020065233A (ja) 情報処理システム及び情報処理方法
JP7215039B2 (ja) 情報処理装置及び文書作成プログラム
US11368593B2 (en) Image forming system allowing voice operation, control method therefor, and storage medium storing control program therefor
JP2023121710A (ja) 情報処理システム、情報処理装置とその制御方法、及びプログラム
JP2020026086A (ja) 画像形成装置
JP2006277104A (ja) 画像読み取り装置、辞書登録対象語句の抽出方法およびプログラム
JP2019040373A (ja) 画像形成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240521