JP2010147624A - Communication device, search processing method and search processing program - Google Patents

Communication device, search processing method and search processing program Download PDF

Info

Publication number
JP2010147624A
JP2010147624A JP2008320481A JP2008320481A JP2010147624A JP 2010147624 A JP2010147624 A JP 2010147624A JP 2008320481 A JP2008320481 A JP 2008320481A JP 2008320481 A JP2008320481 A JP 2008320481A JP 2010147624 A JP2010147624 A JP 2010147624A
Authority
JP
Japan
Prior art keywords
search
user
destination
input
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008320481A
Other languages
Japanese (ja)
Inventor
Mitsuharu Nagai
光晴 永井
Jun Kunioka
潤 國岡
Ayumi Ito
歩 伊藤
Eigo Iwai
英剛 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2008320481A priority Critical patent/JP2010147624A/en
Publication of JP2010147624A publication Critical patent/JP2010147624A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication device, capable of more efficiently performing destination search using a voice input, and provide a search processing method and a search processing program. <P>SOLUTION: A CPU sets a recognition result obtained by voice recognition processing in a first search term. Furthermore, the CPU sets kanji obtained by processing for converting Kana into Kanji in a second search term (step S140). Then, the CPU extracts an entry, including the first search term in the "how it is read" of the entry and including the second search term in the "name" of the entry among entries that are registered in an address book (step S142). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、予め登録された複数の宛先から目的の宛先を検索可能な通信装置、検索処理方法および検索処理プログラムに関し、特に音声認識により宛先を検索する技術に関する。   The present invention relates to a communication apparatus, a search processing method, and a search processing program capable of searching for a target destination from a plurality of destinations registered in advance, and more particularly to a technique for searching for a destination by voice recognition.

一般的に、ファクシミリ機能やスキャン機能などを搭載した複合機(MFP:Multi Function Peripheral)などでは、ファクシミリや電子メールの宛先が予め登録可能となっている。このような宛先の登録機能は、「アドレス帳」などとも称されることが多い。   In general, in a multi-function peripheral (MFP) equipped with a facsimile function, a scan function, and the like, a destination of a facsimile or an e-mail can be registered in advance. Such a destination registration function is often referred to as an “address book” or the like.

一般的に、このようなアドレス帳には、機会がある毎に宛先が順次登録されていくため、長期間の使用に伴って、多数の宛先が登録されてしまっていることも多い。そのため、多数の宛先の中から、効率的に目的の宛先を検索する機能が要望される。   In general, in such an address book, destinations are sequentially registered every time there is an opportunity. Therefore, many destinations are often registered with long-term use. Therefore, there is a demand for a function for efficiently searching for a target destination from a large number of destinations.

ところで、このような宛先としては、宛先とすべき、ファクシミリ番号、電子メールアドレス、ファイルサーバのアドレスなどの宛先情報に加えて、ユーザが宛先を判別できる情報(たとえば、「AAAさん」といった名前)が含まれる。そのため、多くの場合、このような情報をアルファベット順などに整列もしくは区別することで、より検索効率を高めるような工夫が実用化されている。   By the way, as such a destination, in addition to destination information such as a facsimile number, an e-mail address, and a file server address that should be the destination, information that allows the user to determine the destination (for example, a name such as “Mr. AAA”) Is included. For this reason, in many cases, a device for increasing the search efficiency by arranging or distinguishing such information in alphabetical order has been put into practical use.

また、キー操作に代えて、音声入力によって、宛先を指定する構成も提案されている。たとえば、特開2001−313808号公報(特許文献1)には、送信相手先の指定を音声で効率的に行なうとともに、誤発呼を防止するファクシミリ装置が開示されている。   A configuration has also been proposed in which a destination is designated by voice input instead of a key operation. For example, Japanese Patent Laid-Open No. 2001-313808 (Patent Document 1) discloses a facsimile apparatus that efficiently designates a transmission destination by voice and prevents erroneous calls.

さらに、特開2007−166152号公報(特許文献2)には、複数の相手先と同報通信を行なおうとする場合に、検索キーと一致した宛先情報については、さらなる照合を省略することで、照合に要する時間を短縮するとともに、相手先の入力ミスを防止する構成を開示している。
特開2001−313808号公報 特開2007−166152号公報
Further, in Japanese Patent Application Laid-Open No. 2007-166152 (Patent Document 2), when performing broadcast communication with a plurality of destinations, further collation is omitted for destination information that matches a search key. In addition, a configuration is disclosed in which the time required for collation is shortened and an input error of the other party is prevented.
JP 2001-313808 A JP 2007-166152 A

上述の特開2001−313808号公報(特許文献1)に開示されるように、ユーザからの音声入力に基づいて宛先を指定することで検索の効率化が期待できる。その反面、ユーザによる声質、テンポ、リズム、抑揚などは、ユーザによりまちまちであるので、ユーザの発話内容を常に正確に認識することは容易ではない。すなわち、現時点では、ユーザの発話内容に対する認識率を100%に維持することは難しい。   As disclosed in the above-mentioned Japanese Patent Application Laid-Open No. 2001-313808 (Patent Document 1), it is possible to expect efficient search by designating a destination based on a voice input from a user. On the other hand, since the voice quality, tempo, rhythm, intonation, etc. by the user vary depending on the user, it is not easy to always accurately recognize the user's utterance content. That is, at the present time, it is difficult to maintain the recognition rate for the user's utterance content at 100%.

このような状況に鑑みると、同一または類似の発音を有する複数の宛先が登録されていたような場合には、ユーザからの音声入力のみに基づいて、いずれか1つを選択することは難しくなる。逆に、ユーザは、何度も言い直しをする必要も生じ、かえって検索の効率を低下させるおそれもある。   In view of such a situation, when a plurality of destinations having the same or similar pronunciation are registered, it is difficult to select any one based only on the voice input from the user. . On the other hand, the user may need to rephrase many times, which may reduce the search efficiency.

そこで、この発明は、かかる問題を解決するためになされたものであり、その目的は、音声入力を利用してより効率的な宛先検索を行なうことができる通信装置、検索処理方法および検索処理プログラムを提供することである。   Therefore, the present invention has been made to solve such a problem, and an object of the present invention is to provide a communication device, a search processing method, and a search processing program capable of performing more efficient destination search using voice input. Is to provide.

この発明のある局面に従う通信装置は、複数の宛先を格納する記憶部と、ユーザ指示に従って記憶部から宛先を検索する制御部と、検索された宛先に従ってデータを送信する通信部と、音声入力を受付ける音声入力部と、音声入力を認識する音声認識部とを含む。制御部は、検索待ち状態において音声入力部で受付けられる第1音声入力の認識結果を第1の検索条件に設定し、第1音声入力に引き続いて入力される内容を第2の検索条件に設定し、記憶部に格納された複数の宛先のうち、第1および第2の検索条件を共に満たす宛先を抽出する。   A communication device according to an aspect of the present invention includes a storage unit that stores a plurality of destinations, a control unit that searches for a destination from the storage unit according to a user instruction, a communication unit that transmits data according to the searched destination, and voice input A voice input unit that receives the voice input unit; and a voice recognition unit that recognizes the voice input. The control unit sets the recognition result of the first voice input received by the voice input unit in the search waiting state as the first search condition, and sets the content input subsequent to the first voice input as the second search condition. Then, a destination satisfying both the first and second search conditions is extracted from the plurality of destinations stored in the storage unit.

好ましくは、制御部は、第1音声入力に引き続いて音声入力部で受付けられる第2音声入力の認識結果を、第2の検索条件に設定する。   Preferably, the control unit sets, as the second search condition, a recognition result of the second voice input received by the voice input unit subsequent to the first voice input.

あるいは好ましくは、通信装置は、ユーザによる文字入力を受付ける文字入力部をさらに含み、制御部は、第1音声入力に引き続いて文字入力部で受付けられる文字入力を、第2の検索条件に設定する。   Alternatively, preferably, the communication device further includes a character input unit that accepts a character input by a user, and the control unit sets a character input accepted by the character input unit subsequent to the first voice input as a second search condition. .

また、あるいは好ましくは、通信装置は、ユーザによる文字入力を受付ける文字入力部をさらに含み、制御部は、ユーザ操作に応じて、第1音声入力に引き続いて音声入力部で受付けられる第2音声入力の認識結果、および、第1音声入力に引き続いて文字入力部で受付けられる文字入力、の一方を、第2の検索条件に設定する。   In addition, or preferably, the communication device further includes a character input unit that receives a character input by a user, and the control unit receives a second voice input that is received by the voice input unit following the first voice input in response to a user operation. One of the recognition result and the character input accepted by the character input unit subsequent to the first voice input is set as the second search condition.

好ましくは、通信装置は、表示部をさらに含み、制御部は、記憶部に格納された複数の宛先から第1の検索条件を満たす宛先を抽出し、その抽出結果を表示部に表示した後、抽出結果を第2の検索条件に基づいて絞り込み、表示部の表示内容をその絞り込み結果に更新する。   Preferably, the communication device further includes a display unit, and the control unit extracts a destination satisfying the first search condition from a plurality of destinations stored in the storage unit, and displays the extraction result on the display unit. The extraction result is narrowed down based on the second search condition, and the display content of the display unit is updated to the narrowing result.

好ましくは、複数の宛先の各々は、漢字を含む名前と、当該名前のよみとを含んでおり、制御部は、漢字と当該漢字のよみとを対応付けたファイルを参照して、第2の検索条件に対応するよみを有する漢字を特定し、特定した漢字をその名前に含む宛先を第2の検索条件を満たす宛先として抽出する。   Preferably, each of the plurality of destinations includes a name including a kanji and a reading of the name, and the control unit refers to a file in which the kanji and the reading of the kanji are associated with each other, A Chinese character having a reading corresponding to the search condition is specified, and a destination including the specified Chinese character in its name is extracted as a destination satisfying the second search condition.

あるいは好ましくは、複数の宛先の各々は、第1部分および第2部分に区分された名前を含んでおり、制御部は、複数の宛先の各々について、その第1部分に対して第1の検索条件を満たすか否かを判断するとともに、その第2部分に対して第2の検索条件を満たすか否かを判断する。   Alternatively, preferably, each of the plurality of destinations includes a name divided into a first part and a second part, and the control unit performs a first search for the first part for each of the plurality of destinations. It is determined whether or not the condition is satisfied, and whether or not the second search condition is satisfied for the second portion is determined.

好ましくは、制御部は、第1音声入力の認識結果と類似した宛先についても、第1の検索条件を満たすと判断する。   Preferably, the control unit determines that the first search condition is satisfied even for a destination similar to the recognition result of the first voice input.

この発明の別の局面に従えば、予め登録された複数の宛先からユーザ要求に応じた宛先を検索する検索処理方法を提供する。検索処理方法は、ユーザ操作に応じて検索待ち状態になるステップと、検索待ち状態において、ユーザからの第1音声入力を受付けるステップと、第1音声入力に対して音声認識を実行するステップと、第1音声入力の認識結果を第1の検索条件に設定するステップと、第1音声入力に引き続いて入力される内容を受付けて第2の検索条件に設定するステップと、複数の宛先のうち、第1および第2の検索条件を共に満たす宛先を抽出するステップとを含む。   According to another aspect of the present invention, a search processing method for searching for a destination according to a user request from a plurality of destinations registered in advance is provided. The search processing method includes a step of waiting for a search according to a user operation, a step of accepting a first voice input from a user in the search wait state, a step of executing voice recognition for the first voice input, A step of setting a recognition result of the first voice input as a first search condition, a step of accepting contents input subsequent to the first voice input and setting as a second search condition, and a plurality of destinations, Extracting a destination that satisfies both the first and second search conditions.

この発明のさらに別の局面に従えば、予め登録された複数の宛先からユーザ要求に応じた宛先を検索させる検索処理プログラムを提供する。検索処理プログラムは、コンピュータに、ユーザ操作に応じて検索待ち状態になるステップと、検索待ち状態において、ユーザからの第1音声入力を受付けるステップと、第1音声入力に対して音声認識を実行するステップと、第1音声入力の認識結果を第1の検索条件に設定するステップと、第1音声入力に引き続いて入力される内容を受付けて第2の検索条件に設定するステップと、複数の宛先のうち、第1および第2の検索条件を共に満たす宛先を抽出するステップとを実行させる。   According to still another aspect of the present invention, a search processing program for searching for a destination according to a user request from a plurality of destinations registered in advance is provided. The search processing program executes a step of entering into a search waiting state in response to a user operation in the computer, a step of receiving a first voice input from a user in the search waiting state, and voice recognition for the first voice input. A step of setting a recognition result of the first voice input as a first search condition, a step of accepting contents input subsequent to the first voice input and setting as a second search condition, and a plurality of destinations Among these, a step of extracting a destination satisfying both the first and second search conditions is executed.

この発明によれば、音声入力を利用してより効率的な宛先検索を行なうことができる。   According to the present invention, more efficient destination search can be performed using voice input.

この発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。   Embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are denoted by the same reference numerals and description thereof will not be repeated.

以下に述べるこの発明の各実施の形態においては、本発明に係る通信装置の代表例として、ファクシミリ送信/受信機能、ネットワーク通信機能、スキャン機能、プリント機能、複写機能(モノクロおよび/またはカラー)といった複数の機能を搭載した複合機(Multi Function Peripheral:以下「MFP」とも称す。)について例示する。なお、後述するように、本発明に係る通信装置をパーソナルコンピュータなどによって実現してもよい。   In the embodiments of the present invention described below, representative examples of the communication apparatus according to the present invention include a facsimile transmission / reception function, a network communication function, a scanning function, a printing function, and a copying function (monochrome and / or color). An example of a multi-function peripheral (hereinafter referred to as “MFP”) equipped with a plurality of functions will be described. As will be described later, the communication apparatus according to the present invention may be realized by a personal computer or the like.

[実施の形態1]
<外観構成>
図1は、この発明の実施の形態1に従うMFP1の外観図である。図2は、図1に示すMFP1の操作パネル8の外観図である。
[Embodiment 1]
<Appearance configuration>
FIG. 1 is an external view of MFP 1 according to the first embodiment of the present invention. FIG. 2 is an external view of operation panel 8 of MFP 1 shown in FIG.

図1を参照して、本実施の形態に従うMFP1は、典型的に、公衆交換電話網(PSTN:Public Switched Telephone Networks)およびインターネット網(IPN:Internet Protocol Networks)を利用可能である。すなわち、MFP1は、公衆交換電話網を通じて相手先へファクシミリを送信し、および、インターネット網を通じて相手先へ電子メールを送信したり、ファイルを転送したりすることができる。本実施の形態に従うMFP1は、このような相手先への各種情報の送信先である宛先を、ユーザからの音声入力に基づいて効率的に検索する。   Referring to FIG. 1, MFP 1 according to the present embodiment can typically use a public switched telephone network (PSTN) and an Internet protocol network (IPN). That is, the MFP 1 can send a facsimile to the other party through the public switched telephone network, and can send an e-mail or transfer a file to the other party through the Internet network. MFP 1 according to the present embodiment efficiently searches for a destination, which is a transmission destination of various types of information, to the other party based on voice input from the user.

MFP1は、スキャナ2と、自動原稿搬送部3と、プリントエンジン4と、給紙部5と、制御部6と、操作パネル8とを含む。   The MFP 1 includes a scanner 2, an automatic document feeder 3, a print engine 4, a paper feeder 5, a controller 6, and an operation panel 8.

スキャナ2は、ファクシミリ送信などの原稿から画像情報を読取る。具体的には、スキャナ2は、通過する原稿に向けて光源から光を照射するとともに、この照射された光のうち、原稿によって反射した光を撮像素子などによって受光する。なお、スキャナ2は、プラテンガラスに載置された原稿から画像情報を読取ることも可能である。このスキャナ2で読取られた画像情報は、所定の画像処理が行なわれて入力画像データに変換される。   The scanner 2 reads image information from a document such as a facsimile transmission. Specifically, the scanner 2 irradiates light from a light source toward a passing document, and receives light reflected by the document out of the irradiated light by an imaging element or the like. The scanner 2 can read image information from a document placed on the platen glass. Image information read by the scanner 2 is subjected to predetermined image processing and converted into input image data.

スキャナ2には、原稿を連続的に給紙するための自動原稿搬送部3が連結される。自動原稿搬送部3は、原稿給紙台、送出ローラ、レジストローラ、搬送ドラム、および排紙台(いずれも図示しない)などを含む。すなわち、自動原稿搬送部3は、ユーザ操作に従って、原稿給紙台上に載置された読取対象の原稿を、送出ローラの作動により一枚ずつスキャナ2へ送り出す。   The scanner 2 is connected to an automatic document feeder 3 for continuously feeding documents. The automatic document transport unit 3 includes a document feed table, a delivery roller, a registration roller, a transport drum, a paper discharge table (all not shown), and the like. That is, the automatic document feeder 3 feeds the document to be read placed on the document feeding table to the scanner 2 one by one by the operation of the feed roller according to the user operation.

プリントエンジン4は、スキャナ2などによって読取られた画像データに基づいて、記録紙上に対して画像形成を行なう。具体的には、プリントエンジン4は、感光体ドラム、帯電器、露光部、現像部、転写器、除電器、定着装置、クリーニング部(いずれも図示しない)などを含み、これらの機構が一連に動作することでプリント処理を提供する。   The print engine 4 forms an image on the recording paper based on the image data read by the scanner 2 or the like. Specifically, the print engine 4 includes a photosensitive drum, a charger, an exposure unit, a development unit, a transfer unit, a static eliminator, a fixing device, and a cleaning unit (all not shown). Provides print processing by operating.

給紙部5は、少なくとも1つの給紙トレイを含み、プリントエンジン4におけるプリント処理に同期して、所定の給紙トレイにセットされている記録紙をローラなどによって供給する。   The paper supply unit 5 includes at least one paper supply tray, and supplies recording paper set in a predetermined paper supply tray by a roller or the like in synchronization with the print processing in the print engine 4.

制御部6は、MFP1の全体制御を司る全体処理部であり、ユーザ操作に従って、各種制御および動作を実行する。   The control unit 6 is an overall processing unit that controls the entire MFP 1, and executes various controls and operations according to user operations.

操作パネル8は、ユーザ操作を受付ける各種入力キーおよびユーザに各種情報を表示するディスプレイなどを含む。具体的な一例として、図2に示すように、操作パネル8は、長方形状のタッチパネル16と、その底部に配置されたキー入力部12とを含む。   The operation panel 8 includes various input keys that accept user operations and a display that displays various information to the user. As a specific example, as shown in FIG. 2, the operation panel 8 includes a rectangular touch panel 16 and a key input unit 12 disposed on the bottom thereof.

タッチパネル16は、MFP1における各種情報や制御部6で生成されたGUI(Graphical User Interface)などを表示するための液晶パネル(LCD:Liquid Crystal Display)と、液晶パネル上に配置され、その押圧を感知することでユーザ操作を受付ける感圧部とを含む。典型的には、タッチパネル16には、MFP1に対する各ユーザ操作を受付けるためのボタンやアイコンが画面上に配置されている。そして、感圧部が、これらのボタンやアイコンのそれぞれに対応する位置についてユーザ操作がなされたことを検知すると、対応するボタンに割当てられた操作内容が制御部6などへ伝達される。   The touch panel 16 is arranged on a liquid crystal panel (LCD) for displaying various information in the MFP 1 and a GUI (Graphical User Interface) generated by the control unit 6 and senses the press. And a pressure-sensitive unit that receives a user operation. Typically, the touch panel 16 has buttons and icons arranged on the screen for receiving user operations on the MFP 1. When the pressure sensing unit detects that a user operation has been performed on a position corresponding to each of these buttons and icons, the operation content assigned to the corresponding button is transmitted to the control unit 6 and the like.

さらに、操作パネル8の側面には、ユーザからの音声入力に対する音声認識の開始を指示するための音声認識開始キー14が設けられている。また、ユーザからの音声入力は、操作パネル8と電気的に接続されたマイク10によって取得される。すなわち、ユーザが発した音声は、マイク10によって電気信号に変換された後、操作パネル8へ伝達される。   Furthermore, a voice recognition start key 14 is provided on the side of the operation panel 8 to instruct the start of voice recognition in response to voice input from the user. The voice input from the user is acquired by the microphone 10 that is electrically connected to the operation panel 8. That is, the voice uttered by the user is converted into an electrical signal by the microphone 10 and then transmitted to the operation panel 8.

<内部構成>
図3は、この発明の実施の形態1に従うMFP1の内部構成を示す概略図である。
<Internal configuration>
FIG. 3 is a schematic diagram showing an internal configuration of MFP 1 according to the first embodiment of the present invention.

図3を参照して、制御部6は、システムインターフェイス22と、入力画像処理部24と、メモリ26と、出力画像処理部28と、データ格納部30と、FAX通信部32と、IP通信部34とを含む。   Referring to FIG. 3, the control unit 6 includes a system interface 22, an input image processing unit 24, a memory 26, an output image processing unit 28, a data storage unit 30, a FAX communication unit 32, and an IP communication unit. 34.

入力画像処理部24は、スキャナ2で読取られた画像情報に対して、所定の前処理を行なって入力画像データを出力する。なお、前処理には、ノイズ除去やコントラスト調整などが含まれる。そして、入力画像処理部24から出力された入力画像は、メモリ26へ一時的に格納される。   The input image processing unit 24 performs predetermined preprocessing on the image information read by the scanner 2 and outputs input image data. The preprocessing includes noise removal and contrast adjustment. The input image output from the input image processing unit 24 is temporarily stored in the memory 26.

システムインターフェイス22は、制御部6に含まれる各部および制御部6外の各部に対する制御を統括する。具体的には、システムインターフェイス22は、CPU(Central Processing Unit)20を含んでいる。CPU20は、図示しないROMまたはハードディスクなどに予め格納されたプログラムをRAMなどに読み出して実行することで、本実施の形態に従う検索処理方法を提供する演算装置である。   The system interface 22 supervises control of each unit included in the control unit 6 and each unit outside the control unit 6. Specifically, the system interface 22 includes a CPU (Central Processing Unit) 20. The CPU 20 is an arithmetic device that provides a search processing method according to the present embodiment by reading a program stored in advance in a ROM or hard disk (not shown) into a RAM or the like and executing it.

メモリ26は、典型的にはDRAM(Dynamic Random Access Memory)などからなり、入力画像を不揮発的に格納する。そして、このメモリ26に一時的に格納された入力画像は、CPU20によって読出されて出力画像処理部28へ送られる。   The memory 26 typically includes a DRAM (Dynamic Random Access Memory) or the like, and stores an input image in a nonvolatile manner. The input image temporarily stored in the memory 26 is read by the CPU 20 and sent to the output image processing unit 28.

出力画像処理部28は、メモリ26から読出された入力画像に対して、出力先に応じた画像処理を行なう。より具体的には、出力画像処理部28は、出力先がプリントエンジン4であれば、階調値補正といった処理を実行する。これに対して、出力先がFAX通信部32であれば、出力画像処理部28は、2値画像もしくはグレイスケール画像への変換といった処理を実行する。   The output image processing unit 28 performs image processing corresponding to the output destination on the input image read from the memory 26. More specifically, if the output destination is the print engine 4, the output image processing unit 28 executes processing such as gradation value correction. On the other hand, if the output destination is the FAX communication unit 32, the output image processing unit 28 executes processing such as conversion to a binary image or a grayscale image.

FAX通信部32は、公衆交換電話網(PSTN)を介して他のMFPなどと電気的に接続され、出力画像処理部28から出力された画像データを相手先へ送信したり、相手先からの画像を受信したりする。   The FAX communication unit 32 is electrically connected to another MFP or the like via a public switched telephone network (PSTN), and transmits the image data output from the output image processing unit 28 to the other party or from the other party. Receive images.

IP通信部34は、インターネット網を介してパーソナルコンピュータなどと電気的に接続され、出力画像処理部28から出力された画像データや各種ファイルを相手先へ送信したり、相手先からのデータを受信したりする。   The IP communication unit 34 is electrically connected to a personal computer or the like via the Internet network, and transmits image data and various files output from the output image processing unit 28 to the other party or receives data from the other party. To do.

データ格納部30は、不揮発性のデータ記憶手段であり、典型的には、ハードディスクといった磁気記録媒体やフラッシュメモリなどの半導体記録媒体などからなる。このデータ格納部30は、ファクシミリや電子メールの宛先が、少なくともそれを特定する情報と対応付けて登録されたアドレス帳36を保持する。後述するように、本実施の形態に従うアドレス帳36には、宛先の名前もしくは名称に対応付けて、宛先とすべき、ファクシミリ番号、電子メールアドレス、ファイルサーバのアドレスなどの宛先情報が登録されている。なお、本実施の形態に従うアドレス帳36には、宛先の名前もしくは名称の“よみ”も登録可能になっている。   The data storage unit 30 is a nonvolatile data storage unit, and typically includes a magnetic recording medium such as a hard disk, a semiconductor recording medium such as a flash memory, and the like. The data storage unit 30 holds an address book 36 in which a destination of a facsimile or electronic mail is registered in association with at least information for specifying the destination. As will be described later, in the address book 36 according to the present embodiment, destination information such as a facsimile number, an e-mail address, and a file server address to be a destination is registered in association with the name or name of the destination. Yes. In the address book 36 according to the present embodiment, a destination name or “reading” of the name can be registered.

図4は、この発明の実施の形態1に従うアドレス帳36の登録内容の一例を示す図である。図4を参照して、アドレス帳36には、複数のエントリが登録可能になっている。各エントリには、「種別」「名前」「よみ」「登録内容」の4つの項目が規定されている。「種別」の項目には、登録された宛先の種類を特定するための情報が格納される。一例として、「種別」の値が「1」であれば「ファクシミリ」を示し、その値が「2」であれば「電子メール」を示す。「名前」の項目には、登録された宛先を特定するための情報が格納される。「よみ」の項目には、登録された宛先の発音もしくは称呼が格納される。「登録内容」の項目には、ファクシミリ番号、電子メールアドレス、ファイルサーバのアドレス(URL:Uniform Resource Locator)などが格納される。   FIG. 4 shows an example of registered contents of address book 36 according to the first embodiment of the present invention. Referring to FIG. 4, a plurality of entries can be registered in address book 36. Each entry defines four items of “type”, “name”, “reading”, and “registration contents”. In the “type” item, information for specifying the type of the registered destination is stored. As an example, if the value of “type” is “1”, it indicates “facsimile”, and if the value is “2”, it indicates “e-mail”. Information for identifying the registered destination is stored in the item “name”. In the “reading” item, the pronunciation or nickname of the registered destination is stored. In the item “Registration contents”, a facsimile number, an e-mail address, a file server address (URL: Uniform Resource Locator), and the like are stored.

再度図3を参照して、データ格納部30は、漢字−よみ対応リスト38も保持している。この漢字−よみ対応リスト38は、漢字の候補にそれぞれ対応付けて、各漢字が有する“よみ”が記録されている。そのため、何らかの“よみ”が入力されると、当該“よみ”を有する漢字を選択的に抽出することが可能である。   Referring to FIG. 3 again, the data storage unit 30 also holds a kanji-reading correspondence list 38. This kanji-reading correspondence list 38 records “reading” of each kanji in association with kanji candidates. Therefore, when any “reading” is input, it is possible to selectively extract the kanji having the “reading”.

図5は、この発明の実施の形態に従うCPU20で実行されるアプリケーションを模式的に示した図である。   FIG. 5 schematically shows an application executed by CPU 20 according to the embodiment of the present invention.

図5を参照して、CPU20では、ハードウェアを制御する機能などを含むオペレーティングシステム(OS:Operating System)が実行される。このオペレーティングシステムとハードウェアとを仲介するドライバの一例として、音声入力ドライバ42、キー入力ドライバ44、およびタッチパネルドライバ46が、随時もしくは必要に応じて実行される。   Referring to FIG. 5, in CPU 20, an operating system (OS) including a function for controlling hardware and the like is executed. As an example of a driver that mediates between this operating system and hardware, a voice input driver 42, a key input driver 44, and a touch panel driver 46 are executed at any time or as necessary.

音声入力ドライバ42は、マイク10によって取得された音声信号を、オペレーティングシステムで取扱可能なPCM(Pulse Code Modulation)信号などのディジタルデータに変換する。キー入力ドライバ44は、ユーザ操作に応じてキー入力部12から出力される信号に応じて、操作されたキーの種類などを示すデータに変換する。タッチパネルドライバ46は、オペレーティングシステムからの指令に従って、タッチパネルを構成するディスプレイの表示制御を行なうとともに、ユーザ操作に応じてタッチパネルから出力される信号に応じて、ユーザが操作したタッチパネル上の位置などを示すデータに変換する。   The audio input driver 42 converts the audio signal acquired by the microphone 10 into digital data such as a PCM (Pulse Code Modulation) signal that can be handled by the operating system. The key input driver 44 converts it into data indicating the type of the operated key in accordance with a signal output from the key input unit 12 in response to a user operation. The touch panel driver 46 performs display control of the display constituting the touch panel according to a command from the operating system, and indicates a position on the touch panel operated by the user according to a signal output from the touch panel according to a user operation. Convert to data.

さらに、オペレーティングシステム上では、音声認識アプリケーション48が実行される。音声認識アプリケーション48は、音声入力ドライバ42を介して入力される、ユーザからの音声入力に対して音声認識処理を実行する。すなわち、音声認識アプリケーション48は、予め格納された音声認識ライブラリ50を参照して、ユーザからの音声入力に基づく認識結果(文字列)を逐次出力する。   Further, a voice recognition application 48 is executed on the operating system. The voice recognition application 48 executes voice recognition processing on voice input from the user input via the voice input driver 42. That is, the voice recognition application 48 refers to the voice recognition library 50 stored in advance, and sequentially outputs a recognition result (character string) based on the voice input from the user.

この音声認識アプリケーション48と連係して、ユーザインターフェイス(ユーザIF)アプリケーション52も実行される。ユーザIFアプリケーション52は、タッチパネル上に対話型のメニュー画面などを表示する。典型的には、ユーザIFアプリケーション52は、アドレス帳36から特定の宛先を検索するための画面を提供したり、この入力画面に対して入力された検索条件を満たす宛先の検索結果などを表示する画面を提供したりする。   A user interface (user IF) application 52 is also executed in conjunction with the voice recognition application 48. The user IF application 52 displays an interactive menu screen or the like on the touch panel. Typically, the user IF application 52 provides a screen for searching for a specific destination from the address book 36, or displays a search result of a destination that satisfies the search condition input on the input screen. Or provide a screen.

検索アプリケーション54は、本実施の形態に従う宛先検索処理を実行する主体である。後述するように、検索アプリケーション54は、音声認識アプリケーション48によって認識されたユーザからの音声入力の内容、およびユーザ操作によって入力された内容などに基づいて、アドレス帳36に登録された宛先のうち、検索条件を満たすものを抽出する。この検索結果は、ユーザIFアプリケーション52へ渡される。特に、本実施の形態に従う検索アプリケーション54は、複数の検索条件を含む複合条件に基づいて、宛先検索を行なう。   The search application 54 is a subject that executes destination search processing according to the present embodiment. As will be described later, the search application 54 is based on the contents of the voice input from the user recognized by the voice recognition application 48 and the contents input by the user operation. Extract the search conditions. This search result is passed to the user IF application 52. In particular, search application 54 according to the present embodiment performs a destination search based on a composite condition including a plurality of search conditions.

<本実施の形態に従う操作画面例>
以下、本実施の形態に従う宛先検索の操作の一例として、(1)ユーザが発声した内容(以下、「第1検索ターム」とも称す。)と、ユーザの発声に引き続いてユーザが入力した文字(以下、「第2検索ターム」とも称す。)との複合条件、(2)ユーザが最初に発声した内容(以下、「第1検索ターム」とも称す。)と、ユーザの発声に引き続いてユーザがさらに発声した内容(以下、「第3検索ターム」とも称す。)との複合条件、という2つの複合条件を選択的に用いた宛先検索の一例を示す。
<Example of operation screen according to this embodiment>
Hereinafter, as an example of a destination search operation according to the present embodiment, (1) contents uttered by the user (hereinafter also referred to as “first search term”) and characters input by the user following the user's utterance ( (Hereinafter also referred to as “second search term”), (2) content that the user first uttered (hereinafter also referred to as “first search term”), and the user's utterance, Furthermore, an example of a destination search that selectively uses two compound conditions, that is, a compound condition with uttered content (hereinafter also referred to as “third search term”).

より具体的には、本実施の形態においては、第1検索タームは、アドレス帳36に登録されている宛先の“よみ”に対する検索キーとして用いられる。第2検索タームには漢字が設定され、アドレス帳36に登録されている宛先の登録内容に対する検索キーとして用いられる。すなわち、第2検索タームは、複数の宛先のうち、特定の漢字を有するものを抽出するために用いられる。なお、第2検索タームに設定される漢字を「固有漢字」とも称す。一方、第3検索タームには平仮名が設定され、この “よみ”を有する漢字候補を取得した上で、取得した漢字候補を有する宛先を抽出するために用いられる。なお、第3検索タームに設定されるよみを「固有よみ」とも称す。   More specifically, in the present embodiment, the first search term is used as a search key for the address “read” registered in the address book 36. Chinese characters are set in the second search term and used as a search key for the registered contents of the destination registered in the address book 36. That is, the second search term is used to extract a plurality of destinations having a specific Chinese character. The kanji set in the second search term is also referred to as “unique kanji”. On the other hand, hiragana is set in the third search term, and after obtaining a kanji candidate having this “reading”, it is used to extract a destination having the acquired kanji candidate. Note that the reading set in the third search term is also referred to as “unique reading”.

すなわち、上記(1)の宛先検索処理では、「第1検索ターム」が本発明の「第1の検索条件」に相当し、「第2検索ターム」が本発明の「第2の検索条件」に相当する。また、上記(2)の宛先検索処理では、「第1検索ターム」が本発明の「第1の検索条件」に相当し、「第3検索ターム」が本発明の「第2の検索条件」に相当する。   That is, in the destination search process of (1) above, “first search term” corresponds to “first search condition” of the present invention, and “second search term” corresponds to “second search condition” of the present invention. It corresponds to. In the destination search process (2) above, “first search term” corresponds to “first search condition” of the present invention, and “third search term” corresponds to “second search condition” of the present invention. It corresponds to.

図6は、この発明の実施の形態1に従う宛先検索の操作画面例(その1)を説明する図である。図7は、この発明の実施の形態1に従う宛先検索の操作画面例(その2)を説明する図である。   FIG. 6 is a diagram for explaining an operation screen example (part 1) for searching for a destination according to the first embodiment of the present invention. FIG. 7 is a diagram for explaining a destination search operation screen example (part 2) according to the first embodiment of the present invention.

図6および図7に示すいずれの場合においても、アドレス帳36には、図4に示すような内容が登録されているものとする。本実施の形態に従う宛先検索の効果についての理解を容易化するために、「いわいひでたか」という同じ“よみ”を有する2つの宛先「岩井英剛」および「岩居秀隆」がすでに登録されているものとする。   6 and 7, it is assumed that the contents as shown in FIG. 4 are registered in the address book 36. In order to facilitate understanding of the effect of the destination search according to the present embodiment, two destinations “Hidetaka Iwai” and “Hidetaka Iwai” having the same “reading” of “Iwai Hidetaka” have already been registered. It shall be.

図6を参照して、ユーザがファクシミリなどを送信するための操作をすると、まず、操作パネル8には画面102が表示される。画面102には、アドレス帳36に登録されている各宛先が選択可能な状態で一覧表示される。この画面102は、典型的には、スキャナ2で原稿から画像情報を読取る前に表示され、検索待ち状態に相当する。   Referring to FIG. 6, when the user performs an operation for transmitting a facsimile or the like, first, screen 102 is displayed on operation panel 8. The screen 102 displays a list of destinations registered in the address book 36 in a selectable state. This screen 102 is typically displayed before the scanner 2 reads image information from the document, and corresponds to a search waiting state.

画面102が表示されている状態で、ユーザが音声認識開始キー14(図2)を押下すると、ユーザからの音声入力が受付可能状態になる。このとき、操作パネル8の表示は、画面104のように変化する。この画面104が表示されている状態では、ユーザからの音声入力があれば、それに応答して音声認識を実行できる状態となっている。   When the user presses the voice recognition start key 14 (FIG. 2) while the screen 102 is displayed, the voice input from the user can be accepted. At this time, the display on the operation panel 8 changes like the screen 104. When the screen 104 is displayed, if there is a voice input from the user, the voice recognition can be executed in response thereto.

画面104が表示されている状態で、ユーザが「連続入力」ボタン104aを押下すると、「連続入力モード」に遷移する。この連続入力モードでは、複合条件に基づく宛先検索が可能である。このとき、操作パネル8の表示は、画面106のように変化する。この画面106では、「漢字入力」ボタン106aおよび「読み仮名入力」ボタン106bが選択可能に表示される。ボタン106aは、上述の(1)ユーザが発声した内容(第1検索ターム)と、ユーザの発声に引き続いてユーザが入力した文字(第2検索ターム)との複合条件に基づく宛先検索の選択を受付ける。一方、ボタン106bは、上述の(2)ユーザが最初に発声した内容(第1検索ターム)と、ユーザの発声に引き続いてユーザがさらに発声した内容(第3検索ターム)との複合条件に基づく宛先検索の選択を受付ける。   When the user presses the “continuous input” button 104a while the screen 104 is displayed, the screen transitions to the “continuous input mode”. In this continuous input mode, a destination search based on a composite condition is possible. At this time, the display on the operation panel 8 changes like a screen 106. On this screen 106, an “Input Kanji” button 106a and an “Input Kana” button 106b are displayed in a selectable manner. The button 106a is used to select a destination search based on a composite condition of the above-mentioned (1) content uttered by the user (first search term) and characters (second search term) input by the user following the user's utterance. Accept. On the other hand, the button 106b is based on the composite condition of the above-mentioned (2) content that the user first uttered (first search term) and content that the user uttered following the user's utterance (third search term). Accept destination search selection.

画面106が表示されている状態で、ユーザが「漢字入力」ボタン106aを押下した後、「いわいひでたか」と発声したとする。すると、このユーザが発声した音声が音声認識され、認識結果として文字列が出力される。   It is assumed that, while the screen 106 is displayed, the user utters “Iwata Hidetaka” after pressing the “Kanji input” button 106 a. Then, the voice uttered by the user is recognized and a character string is output as a recognition result.

また、ユーザからの音声入力を検知すると、操作パネル8の表示は、画面108のように変化する。さらに、画面108の入力ダイアログには、ユーザからの音声入力に基づく認識結果(文字列)が反映される。この画面108には、ユーザからの文字の入力を受付ける複数のボタンがキーボード配列されている。   When the voice input from the user is detected, the display on the operation panel 8 changes like the screen 108. Further, the recognition result (character string) based on the voice input from the user is reflected in the input dialog on the screen 108. On this screen 108, a plurality of buttons for accepting input of characters from the user are arranged in a keyboard.

ユーザは、「いわいひでたか」との発声に引き続いて、画面108上のキーを操作して、「えい」という文字列を入力したとする。この平仮名「えい」が「固有よみ」として扱われる。画面110には、入力ダイアログに、ユーザが発声した「いわいひでたか」との認識結果と、「えい」という入力結果が反映されている状態を示す。さらに、ユーザが「変換」ボタン110aを押下すると、平仮名「えい」に対する仮名漢字変換処理が実行される。この仮名漢字変換処理によって、ユーザが、平仮名「えい」を漢字「英」に変換したものとする。この漢字「英」が「固有漢字」として扱われる。なお、仮名漢字変換処理については、公知の技術であるで、詳細な説明は行なわない。   It is assumed that the user operates the key on the screen 108 and inputs the character string “Ei” following the utterance “Iwai Hidetaka”. This Hiragana “Ei” is treated as “Unique”. The screen 110 shows a state where the recognition result “Iwai Hidetaka” uttered by the user and the input result “Ei” are reflected in the input dialog. Furthermore, when the user presses the “conversion” button 110a, kana-kanji conversion processing for hiragana “e” is executed. It is assumed that the user has converted the hiragana “e” into the kanji “English” by this kana-kanji conversion process. This Chinese character “English” is treated as “Inherent Kanji”. The kana-kanji conversion process is a known technique and will not be described in detail.

画面112には、入力ダイアログに、ユーザが発声した「いわいひでたか」との認識結果(第1検索ターム)と、仮名漢字変換された結果である「英」という漢字(第2検索ターム)が反映されている状態を示す。さらに、ユーザが「OK」ボタン112aを押下すると、この「いわいひでたか」および「英」からなる複合条件に基づく宛先検索が実行される。   On the screen 112, the input dialog includes a recognition result (first search term) of “Iwai Hidetaka” uttered by the user and a kanji character “English” (second search term) that is the result of kana-kanji conversion. Indicates the state that is reflected. Furthermore, when the user presses the “OK” button 112a, a destination search based on a composite condition including “Iwai Hidetaka” and “English” is executed.

画面114には、この宛先検索結果の一例が示されている。画面114に示すように、「いわいひでたか」という同じ“よみ”を有する2つの宛先「岩井英剛」および「岩居秀隆」のうち、漢字「英」を含む宛先である「岩井英剛」のみが抽出されていることがわかる。   An example of the destination search result is shown on the screen 114. As shown in the screen 114, of two destinations “Iwai Hidetaka” and “Iwai Hidetaka” having the same “reading” “Iwai Hidetaka”, the destination including the Chinese character “English” “Iwai Hidego” It can be seen that only is extracted.

一方、画面106が表示されている状態で、ユーザが「読み仮名入力」ボタン106bを押下した場合の操作画面例を図7に示す。   On the other hand, FIG. 7 shows an example of the operation screen when the user presses the “reading kana input” button 106 b while the screen 106 is displayed.

図7を参照して、画面102,104,106については、図6と同様である。画面106が表示されている状態で、ユーザが「読み仮名入力」ボタン106bを押下した後、「いわいひでたか」と発声したとする。さらに、ユーザは、この発声に引き続いて、「えい」と発声したとする。なお、最初の発声と引き続く発声との間を明確に区別するために、音声認識開始キー14の押下をユーザに要求してもよい。   Referring to FIG. 7, screens 102, 104, and 106 are the same as those in FIG. It is assumed that, while the screen 106 is displayed, the user utters “Iwata Hidetaka” after pressing the “Reading Kana” button 106b. Further, it is assumed that the user utters “e” following this utterance. Note that the user may be requested to press the voice recognition start key 14 in order to clearly distinguish between the first utterance and the subsequent utterance.

また、ユーザからの音声入力を検知すると、操作パネル8の表示は、画面116のように変化する。さらに、画面116には、入力ダイアログに、ユーザが発声した「いわいひでたか」という認識結果(第1検索ターム)および「えい」との“よみ”(第3検索ターム)が反映される。   When the voice input from the user is detected, the display on the operation panel 8 changes like a screen 116. Further, on the screen 116, the recognition result “first search term” uttered by the user (first search term) and “read” (third search term) “Ei” are reflected in the input dialog.

続いて、ユーザが「OK」ボタン116aを押下すると、この「いわいひでたか」および「えい」からなる複合条件に基づく宛先検索が実行される。画面116に示す場合には、ユーザが最初に発声した「いわいひでたか」については、そのまま“よみ”として宛先検索に用いられる。一方、最初の発声に引き続いてユーザがさらに発声した「えい」については、それを“よみ”として有する漢字を宛先検索の条件として用いられる。より具体的には、データ格納部30が保持する漢字−よみ対応リスト38を参照することで、ユーザからの音声入力に対応する漢字の候補が選択される。   Subsequently, when the user presses the “OK” button 116 a, a destination search based on the composite condition including “Iwai Hidetaka” and “Ei” is executed. In the case of the screen 116, “Iwai Hidetaka” first uttered by the user is used as a “reading” as it is for destination search. On the other hand, for “Ei” uttered further by the user following the first utterance, a Chinese character having it as “reading” is used as a destination search condition. More specifically, by referring to the kanji-reading correspondence list 38 held by the data storage unit 30, a candidate for kanji corresponding to the voice input from the user is selected.

図8は、この発明の実施の形態1に従う漢字−よみ対応リスト38の登録内容の一例を示す図である。図8を参照して、漢字−よみ対応リスト38には、複数の漢字と、各「漢字」に対応付けられた「よみ」が規定されている。たとえば、「英」という漢字には、「ひで」および「えい」が対応付けられており、「秀」という漢字には、「ひで」および「しゅう」が対応付けられており、「栄」という漢字には、「さかえ」および「えい」が対応付けられている。   FIG. 8 shows an example of registered contents of the kanji-reading correspondence list 38 according to the first embodiment of the present invention. Referring to FIG. 8, the kanji-reading correspondence list 38 defines a plurality of kanji and “reading” associated with each “kanji”. For example, the character “English” is associated with “Hide” and “Ei”, and the character “Hide” is associated with “Hide” and “Syu”. “Kakae” and “Ei” are associated with kanji.

たとえば、図7に示す例では、図4に示すアドレス帳36に登録された宛先のうち、「よみ」に「いわいひでたか」を含み、かつ「名前」に「英」や「栄」のうち、いずれかを含むものが抽出される。その結果、画面118に示すように、「いわいひでたか」という同じ“よみ”を有する2つの宛先「岩井英剛」および「岩居秀隆」のうち、漢字「英」を含む宛先である「岩井英剛」のみが抽出される。   For example, in the example shown in FIG. 7, among the destinations registered in the address book 36 shown in FIG. 4, “Yomi” includes “Iwai Hidetaka” and “Name” includes “English” and “Sakae”. , One containing either is extracted. As a result, as shown in the screen 118, among the two destinations “Iwai Hidetaka” and “Iwai Hidetaka” having the same “reading” “Iwai Hidetaka”, the destination including the Chinese character “English” “Iwai” Only “Engyo” is extracted.

なお、図6および図7のいずれの場合においても、1つの宛先に絞り込まれるまで、検索結果が表示されないようにしてもよい。このときには、1つの宛先に絞り込まれるまで、複合条件の受付けが継続される。   In either case of FIG. 6 and FIG. 7, the search result may not be displayed until it is narrowed down to one destination. At this time, the acceptance of the composite condition is continued until it is narrowed down to one destination.

<処理手順>
図9および図10は、この発明の実施の形態1に従う宛先検索の処理手順を示すフローチャートである。なお、図9および図10に示すフローチャートは、システムインターフェイス22に含まれるCPU20がプログラムを実行することで提供される。
<Processing procedure>
9 and 10 are flowcharts showing a destination search processing procedure according to the first embodiment of the present invention. The flowcharts shown in FIGS. 9 and 10 are provided when the CPU 20 included in the system interface 22 executes a program.

図9および図10を参照して、まず、CPU20は、ユーザによる送信操作を受付けたか否かを判断する(ステップS100)。ユーザによる送信操作を受付けていない場合(ステップS100においてNOの場合)には、ステップS100の処理が繰返される。   Referring to FIGS. 9 and 10, first, CPU 20 determines whether or not a transmission operation by the user has been accepted (step S100). If the transmission operation by the user is not accepted (NO in step S100), the process of step S100 is repeated.

一方、ユーザによる送信操作を受付けた場合(ステップS100においてYESの場合)には、CPU20は、タッチパネル16に宛先一覧画面(図6および図7の画面102)を表示する(ステップS102)。続いて、CPU20は、タッチパネル16に対して何らかのユーザ操作がなされたか否かを判断する(ステップS104)。タッチパネル16に対して何らかのユーザ操作がなされていない場合(ステップS104においてNOの場合)には、ステップS104の処理が繰返される。   On the other hand, when the transmission operation by the user is accepted (YES in step S100), CPU 20 displays a destination list screen (screen 102 in FIGS. 6 and 7) on touch panel 16 (step S102). Subsequently, the CPU 20 determines whether any user operation has been performed on the touch panel 16 (step S104). If any user operation is not performed on touch panel 16 (NO in step S104), the process in step S104 is repeated.

一方、タッチパネル16に対して何らかのユーザ操作がなされた場合(ステップS104においてYESの場合)には、CPU20は、当該ユーザ操作が「連続入力」ボタン104a(図6および図7)の押下であるか否かを判断する(ステップS106)。当該ユーザ操作が「連続入力」ボタン104aの押下ではない場合(ステップS106においてNOの場合)には、その他の処理が実行される(ステップS108)。   On the other hand, if any user operation is performed on touch panel 16 (YES in step S104), CPU 20 determines whether the user operation is a press of “continuous input” button 104a (FIGS. 6 and 7). It is determined whether or not (step S106). If the user operation is not pressing the “continuous input” button 104a (NO in step S106), other processing is executed (step S108).

一方、当該ユーザ操作が「連続入力」ボタン104aの押下である場合(ステップS106においてYESの場合)には、CPU20は、音声認識開始キー14(図2)の押下を待つ(ステップS110)。音声認識開始キー14の押下後、CPU20は、タッチパネル16に「漢字入力」または「読み仮名入力」に対する選択画面を表示する(ステップS112)。続いて、CPU20は、ユーザ操作に応答して、「漢字入力」および「読み仮名入力」のいずれが選択されたかを判断する(ステップS114)。   On the other hand, when the user operation is pressing of the “continuous input” button 104a (YES in step S106), the CPU 20 waits for pressing of the voice recognition start key 14 (FIG. 2) (step S110). After pressing the voice recognition start key 14, the CPU 20 displays a selection screen for “Kanji input” or “Yomikana input” on the touch panel 16 (step S 112). Subsequently, in response to the user operation, the CPU 20 determines which one of “Kanji input” and “Yomikana input” has been selected (step S114).

「漢字入力」が選択された場合(ステップS114において「漢字入力」の場合)、すなわち「漢字入力」ボタン106aが押下された場合には、CPU20は、ステップS120以下の処理を実行する。一方、「読み仮名入力」が選択された場合(ステップS114において「読み仮名入力」の場合)、すなわち「読み仮名入力」ボタン106bが押下された場合には、CPU20は、ステップS150以下の処理を実行する。   When “Kanji input” is selected (in the case of “Kanji input” in step S114), that is, when the “Kanji input” button 106a is pressed, the CPU 20 executes the processing from step S120. On the other hand, when “input reading” is selected (in the case of “input reading” in step S114), that is, when the “input reading” button 106b is pressed, the CPU 20 performs the processing from step S150 onward. Execute.

ステップS120において、CPU20は、音声認識開始キー14が押下されたか否かを判断する。音声認識開始キー14が押下されていない場合(ステップS120においてNOの場合)には、音声認識開始キー14が押下されるまで待つ。   In step S120, the CPU 20 determines whether or not the voice recognition start key 14 has been pressed. If the voice recognition start key 14 is not pressed (NO in step S120), the process waits until the voice recognition start key 14 is pressed.

一方、音声認識開始キー14が押下された場合(ステップS120においてYESの場合)には、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS122)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS124)。音声認識処理が成功しなかった場合(ステップS124においてNOの場合)には、ステップS122以下の処理が繰返される。これに対して、音声認識処理が成功した場合(ステップS124においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果を第1検索タームに設定する(ステップS126)。さらに、CPU20は、タッチパネル16に、取得した第1検索タームを反映したキーボード入力画面(図6の画面108)を表示する(ステップS128)。   On the other hand, when the voice recognition start key 14 is pressed (YES in step S120), the CPU 20 waits for voice input by the user. Then, the CPU 20 executes a voice recognition process in response to the voice input by the user (step S122). After executing the voice recognition process, the CPU 20 determines whether or not the voice recognition process is successful (step S124). If the voice recognition process has not succeeded (NO in step S124), the processes in and after step S122 are repeated. On the other hand, when the voice recognition process is successful (YES in step S124), the CPU 20 sets the recognition result obtained by the voice recognition process as the first search term (step S126). Further, the CPU 20 displays a keyboard input screen (screen 108 in FIG. 6) reflecting the acquired first search term on the touch panel 16 (step S128).

続いて、CPU20は、タッチパネル16に対して何らかのユーザ操作がなされたか否かを判断する(ステップS130)。タッチパネル16に対して何らかのユーザ操作がなされていない場合(ステップS130においてNOの場合)には、ステップS130の処理が繰返される。   Subsequently, the CPU 20 determines whether any user operation has been performed on the touch panel 16 (step S130). If any user operation is not performed on touch panel 16 (NO in step S130), the process of step S130 is repeated.

一方、タッチパネル16に対して何らかのユーザ操作がなされた場合(ステップS130においてYESの場合)には、CPU20は、ユーザ操作されたボタンの種類を判断する(ステップS132)。ユーザ操作されたボタンが文字入力ボタンである場合(ステップS132において「文字入力」)には、CPU20は、ユーザ操作されたボタンに応じた文字列を受付ける(ステップS134)。そして、ステップS132の処理が繰返される。   On the other hand, if any user operation is performed on touch panel 16 (YES in step S130), CPU 20 determines the type of button operated by the user (step S132). If the button operated by the user is a character input button (“character input” in step S132), the CPU 20 accepts a character string corresponding to the button operated by the user (step S134). Then, the process of step S132 is repeated.

また、ユーザ操作されたボタンが「変換」ボタン110aである場合(ステップS132において「変換」)には、CPU20は、現在受付けている文字列に対して、仮名漢字変換処理を実行する(ステップS136)。続いて、CPU20は、「OK」ボタン112aが押下されたか否かを判断する(ステップS138)。「OK」ボタン112aが押下されていない場合(ステップS138においてNOの場合)には、ステップS132の処理が繰返される。   If the button operated by the user is the “conversion” button 110a (“conversion” in step S132), the CPU 20 executes kana-kanji conversion processing for the currently accepted character string (step S136). ). Subsequently, the CPU 20 determines whether or not the “OK” button 112a has been pressed (step S138). If “OK” button 112a is not pressed (NO in step S138), the process of step S132 is repeated.

「OK」ボタン112aが押下された場合(ステップS138においてYESの場合)には、CPU20は、仮名漢字変換処理によって得られた漢字を第2検索タームに設定する(ステップS140)。さらに、CPU20は、第1検索タームおよび第2検索タームに基づいて、アドレス帳36に登録されている宛先検索を行なう(ステップS142)。より具体的には、CPU20は、アドレス帳36に登録されているエントリのうち、その「よみ」に第1検索タームを含み、かつその「名前」に第2検索タームを含むものを抽出する。   When “OK” button 112a is pressed (YES in step S138), CPU 20 sets the kanji obtained by the kana-kanji conversion process as the second search term (step S140). Further, the CPU 20 performs a destination search registered in the address book 36 based on the first search term and the second search term (step S142). More specifically, the CPU 20 extracts the entries registered in the address book 36 that include the first search term in the “reading” and the second search term in the “name”.

続いて、CPU20は、検索された宛先が複数存在するか否かを判断する(ステップS144)。検索された宛先が複数存在する場合(ステップS144においてYESの場合)には、ステップS120以下の処理が繰返される。一方、検索された宛先が複数存在しない場合(ステップS144においてNOの場合)には、CPU20は、ステップS180以下の処理を実行する。   Subsequently, the CPU 20 determines whether or not there are a plurality of searched destinations (step S144). If there are a plurality of searched destinations (YES in step S144), the processes in and after step S120 are repeated. On the other hand, when there are not a plurality of searched destinations (NO in step S144), CPU 20 executes the processing in step S180 and subsequent steps.

これに対して、ステップS150において、CPU20は、音声認識開始キー14が押下されたか否かを判断する。音声認識開始キー14が押下されていない場合(ステップS150においてNOの場合)には、音声認識開始キー14が押下されるまで待つ。   On the other hand, in step S150, the CPU 20 determines whether or not the voice recognition start key 14 is pressed. If the voice recognition start key 14 is not pressed (NO in step S150), the process waits until the voice recognition start key 14 is pressed.

一方、音声認識開始キー14が押下された場合(ステップS150においてYESの場合)には、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS152)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS154)。音声認識処理が成功しなかった場合(ステップS154においてNOの場合)には、ステップS152以下の処理が繰返される。これに対して、音声認識処理が成功した場合(ステップS154においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果を第1検索タームに設定する(ステップS156)。   On the other hand, when the voice recognition start key 14 is pressed (YES in step S150), the CPU 20 waits for voice input by the user. Then, the CPU 20 performs a voice recognition process in response to the voice input by the user (step S152). After executing the voice recognition process, the CPU 20 determines whether or not the voice recognition process is successful (step S154). If the speech recognition process is not successful (NO in step S154), the processes in and after step S152 are repeated. On the other hand, when the voice recognition process is successful (YES in step S154), the CPU 20 sets the recognition result obtained by the voice recognition process as the first search term (step S156).

続いて、CPU20は、音声認識開始キー14が再度押下されたか否かを判断する(ステップS158)。音声認識開始キー14が再度押下されていない場合(ステップS158においてNOの場合)には、音声認識開始キー14が再度押下されるまで待つ。   Subsequently, the CPU 20 determines whether or not the voice recognition start key 14 has been pressed again (step S158). If the voice recognition start key 14 has not been pressed again (NO in step S158), the process waits until the voice recognition start key 14 is pressed again.

一方、音声認識開始キー14が再度押下された場合(ステップS158においてYESの場合)には、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS160)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS162)。音声認識処理が成功しなかった場合(ステップS162においてNOの場合)には、ステップS160以下の処理が繰返される。これに対して、音声認識処理が成功した場合(ステップS162においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果を第3検索タームに設定する(ステップS164)。   On the other hand, when the voice recognition start key 14 is pressed again (YES in step S158), the CPU 20 waits for a voice input by the user. Then, the CPU 20 executes a voice recognition process in response to the voice input by the user (step S160). After executing the voice recognition process, the CPU 20 determines whether or not the voice recognition process is successful (step S162). If the speech recognition process is not successful (NO in step S162), the processes in and after step S160 are repeated. On the other hand, when the voice recognition process is successful (YES in step S162), the CPU 20 sets the recognition result obtained by the voice recognition process as the third search term (step S164).

さらに、CPU20は、タッチパネル16に、取得した第1検索タームおよび第2検索タームを反映したキーボード入力画面(図7の画面116)を表示する(ステップS166)。続いて、CPU20は、「OK」ボタン116aが押下されたか否かを判断する(ステップS168)。「OK」ボタン116aが押下されていない場合(ステップS168においてNOの場合)には、ステップS168の処理が繰返される。   Further, the CPU 20 displays a keyboard input screen (screen 116 in FIG. 7) reflecting the acquired first search term and second search term on the touch panel 16 (step S166). Subsequently, the CPU 20 determines whether or not the “OK” button 116a has been pressed (step S168). If “OK” button 116a is not pressed (NO in step S168), the process of step S168 is repeated.

「OK」ボタン116aが押下された場合(ステップS168においてYESの場合)には、CPU20は、第1検索タームおよび第3検索タームに基づいて、アドレス帳36に登録されている宛先検索を行なう(ステップS170)。より具体的には、CPU20は、まず、漢字−よみ対応リスト38を参照して、第3検索タームの“よみ”を有する漢字を取得する。そして、CPU20は、アドレス帳36に登録されているエントリのうち、その「よみ」に第1検索タームを含み、かつその「名前」に漢字−よみ対応リスト38から取得された漢字のいずれかを含むものを抽出する。   When “OK” button 116a is pressed (YES in step S168), CPU 20 performs a destination search registered in address book 36 based on the first search term and the third search term ( Step S170). More specifically, the CPU 20 first refers to the kanji-reading correspondence list 38 to acquire a kanji having “reading” in the third search term. Then, the CPU 20 includes the first search term in “Yomi” among the entries registered in the address book 36, and any Kanji acquired from the Kanji-Yomi correspondence list 38 in “Name”. Extract what it contains.

続いて、CPU20は、検索された宛先が複数存在するか否かを判断する(ステップS172)。検索された宛先が複数存在する場合(ステップS172においてYESの場合)には、ステップS152以下の処理が繰返される。一方、検索された宛先が複数存在しない場合(ステップS172においてNOの場合)には、CPU20は、ステップS180以下の処理を実行する。   Subsequently, the CPU 20 determines whether or not there are a plurality of searched destinations (step S172). If there are a plurality of searched destinations (YES in step S172), the processes in and after step S152 are repeated. On the other hand, when there are not a plurality of searched destinations (NO in step S172), CPU 20 executes the processing from step S180 onward.

ステップS180において、CPU20は、ステップS142もしくはステップS170において取得された宛先を、タッチパネル16に選択可能に表示する。さらに、CPU20は、表示された宛先が選択されると、対応する宛先の登録内容をFAX通信部32もしくはIP通信部34へ渡す(ステップS182)。その後、必要な通信処理が実行される。   In step S180, the CPU 20 displays the destination acquired in step S142 or step S170 on the touch panel 16 in a selectable manner. Further, when the displayed destination is selected, the CPU 20 passes the registered contents of the corresponding destination to the FAX communication unit 32 or the IP communication unit 34 (step S182). Thereafter, necessary communication processing is executed.

<音声認識処理>
図11は、この発明の実施の形態1に従う音声認識処理のより詳細な処理手順を示すフローチャートである。
<Voice recognition processing>
FIG. 11 is a flowchart showing a more detailed processing procedure of the speech recognition processing according to the first embodiment of the present invention.

図11を参照して、CPU20は、音声認識開始キー14の押下に応答して、音声認識を開始する(ステップS10)。この音声認識の開始後には、CPU20は、ユーザからの音声入力を受付可能な状態にする。続いて、ユーザからの音声入力があると、CPU20は、音声認識処理を実行する(ステップS12)。この音声認識処理では、CPU20は、予め保持されている語彙データベースなどを参照して、音声入力に対応する文字列を逐次出力する。その後、音声入力に所定期間以上の空白期間が存在すると、CPU20は、ユーザからの音声入力が終了したと判断する(ステップS14)。そして、音声認識処理によって出力された認識結果を利用して、各種処理を実行する(ステップS16)。   Referring to FIG. 11, CPU 20 starts speech recognition in response to pressing of speech recognition start key 14 (step S10). After the start of the voice recognition, the CPU 20 is in a state where it can accept voice input from the user. Subsequently, when there is a voice input from the user, the CPU 20 executes a voice recognition process (step S12). In this voice recognition process, the CPU 20 sequentially outputs a character string corresponding to the voice input with reference to a vocabulary database held in advance. Thereafter, when there is a blank period longer than a predetermined period in the voice input, the CPU 20 determines that the voice input from the user is finished (step S14). And various processes are performed using the recognition result output by the speech recognition process (step S16).

<実施の形態1による作用・効果>
この発明の実施の形態1によれば、まず、ユーザが発声する内容が音声認識された結果が第1検索ターム(第1の検索条件)に設定され、それに引き続いてユーザが入力する内容が第2検索ターム(第2の検索条件)に設定される。あるいは、ユーザが発声する内容が音声認識された結果が第1検索ターム(第1の検索条件)に設定され、それに引き続いてユーザがさらに発声する内容が第3検索ターム(第2の検索条件)に設定される。そして、アドレス帳36から、第1の検索条件および第2の検索条件をともに満たす宛先が抽出される。
<Operation / Effects of First Embodiment>
According to Embodiment 1 of the present invention, first, the result of speech recognition of the content uttered by the user is set as the first search term (first search condition), and the content input by the user subsequently is the first. 2 Search term (second search condition) is set. Alternatively, the result of the speech recognition of the content uttered by the user is set as the first search term (first search condition), and the content further uttered by the user subsequently is the third search term (second search condition). Set to Then, a destination that satisfies both the first search condition and the second search condition is extracted from the address book 36.

そのため、まず、宛先の一部の“よみ”を発声して宛先の候補を特定した上で、それに引き続く入力の内容に基づいて、目的とする宛先に絞り込むことができる。したがって、音声認識の精度が100%ではない場合であっても、目的とする宛先を効率的に検索することができる。   For this reason, it is possible to first narrow down to a target destination based on the contents of the subsequent input after uttering “reading” of a part of the destination to identify destination candidates. Therefore, even when the accuracy of voice recognition is not 100%, a target destination can be efficiently searched.

また、この発明の実施の形態1によれば、宛先の名前全体の“よみ”を正確に覚えておかなくとも、当該名前に含まれる少なくとも1つの漢字の“よみ”が認識できれば、宛先検索を行なうことができる。そのため、人名などに用いられる特殊な“よみ”をもつ漢字が名前に含まれている場合であっても、目的とする宛先を効率的に検索することができる。   Further, according to the first embodiment of the present invention, even if the “reading” of the entire destination name is not accurately remembered, if the “reading” of at least one Chinese character included in the name can be recognized, the destination search is performed. Can be done. For this reason, even if the name includes a kanji character having a special “reading” used for a personal name or the like, the intended destination can be efficiently searched.

[実施の形態2]
上述の実施の形態1では、予め、第1検索タームおよび第2検索ターム、もしくは第1検索タームおよび第3検索タームを入力した上で宛先検索を行なう構成について例示した。しかしながら、アドレス帳にどのような宛先が登録されているのかを予め知ることはできないので、とりあえず、音声入力による宛先検索を行なった上で、複数の宛先の候補が抽出された場合に、第2検索タームもしくは第3検索タームを追加的に入力するような使用形態も想定される。そこで、この発明の実施の形態2では、このような使用形態が可能な構成について例示する。
[Embodiment 2]
In the first embodiment described above, the configuration in which the destination search is performed after the first search term and the second search term or the first search term and the third search term are input in advance has been exemplified. However, since it is impossible to know in advance what kind of destination is registered in the address book, the second search is performed when a plurality of destination candidates are extracted after performing a destination search by voice input. A usage pattern in which a search term or a third search term is additionally input is also assumed. Therefore, Embodiment 2 of the present invention exemplifies a configuration that allows such usage.

本実施の形態に従うMFPの外観図および内部構成については、上述の図1〜図3,図5と同様であるので、詳細な説明は繰返さない。また、アドレス帳36の登録内容についても、図4と同様であるものとし、漢字−よみ対応リスト38の登録内容についても、図8と同様であるものとする。   Since the external view and internal configuration of the MFP according to the present embodiment are the same as those in FIGS. 1 to 3 and 5 described above, detailed description will not be repeated. Also, the registration contents of the address book 36 are the same as those in FIG. 4, and the registration contents of the kanji-reading correspondence list 38 are also the same as those in FIG.

<本実施の形態に従う操作画面例>
以下、本実施の形態に従う宛先検索の操作の一例として、ユーザが発声した内容(第1検索ターム)に基づいて宛先検索が実行された後、(1)ユーザの発声に引き続いてユーザがさらに入力した文字(第2検索ターム)、もしくは、(2)ユーザの発声に引き続いてユーザがさらに発声した内容(第3検索ターム)、に基づくさらなる絞り込みが実行される一例を示す。
<Example of operation screen according to this embodiment>
Hereinafter, as an example of a destination search operation according to the present embodiment, after a destination search is executed based on the content uttered by the user (first search term), (1) the user further inputs following the user's utterance An example is shown in which further narrowing down is performed based on the character (second search term) or (2) the content further uttered by the user following the user's utterance (third search term).

なお、上記(1)の宛先検索処理では、「第1検索ターム」が本発明の「第1の検索条件」に相当し、「第2検索ターム」が本発明の「第2の検索条件」に相当する。また、上記(2)の宛先検索処理では、「第1検索ターム」が本発明の「第1の検索条件」に相当し、「第3検索ターム」が本発明の「第2の検索条件」に相当する。   In the destination search process of (1) above, “first search term” corresponds to “first search condition” of the present invention, and “second search term” corresponds to “second search condition” of the present invention. It corresponds to. In the destination search process (2) above, “first search term” corresponds to “first search condition” of the present invention, and “third search term” corresponds to “second search condition” of the present invention. It corresponds to.

図12は、この発明の実施の形態2に従う宛先検索の操作画面例(その1)を説明する図である。図13は、この発明の実施の形態2に従う宛先検索の操作画面例(その2)を説明する図である。図14は、この発明の実施の形態2に従う宛先検索の操作画面例(その3)を説明する図である。   FIG. 12 is a diagram for explaining a destination search operation screen example (part 1) according to the second embodiment of the present invention. FIG. 13 is a diagram for explaining a destination search operation screen example (part 2) according to the second embodiment of the present invention. FIG. 14 is a diagram for explaining a destination search operation screen example (part 3) according to the second embodiment of the present invention.

図12〜図14に示すいずれの場合においても、アドレス帳36には、図4に示すような内容が登録されているものとする。本実施の形態に従う宛先検索の効果についての理解を容易化するために、「いわいひでたか」という同じ“よみ”を有する2つの宛先「岩井英剛」および「岩居秀隆」がすでに登録されているものとする。   In any of the cases shown in FIGS. 12 to 14, it is assumed that the contents as shown in FIG. 4 are registered in the address book 36. In order to facilitate understanding of the effect of the destination search according to the present embodiment, two destinations “Hidetaka Iwai” and “Hidetaka Iwai” having the same “reading” of “Iwai Hidetaka” have already been registered. It shall be.

図12を参照して、ユーザがファクシミリなどを送信するための操作をすると、まず、操作パネル8には画面132が表示される。画面132には、アドレス帳36に登録されている各宛先が選択可能な状態で一覧表示される。この画面132は、典型的には、スキャナ2で原稿から画像情報を読取る前に表示され、検索待ち状態に相当する。   Referring to FIG. 12, when the user performs an operation for transmitting a facsimile or the like, first, screen 132 is displayed on operation panel 8. The screen 132 displays a list of the destinations registered in the address book 36 in a selectable state. This screen 132 is typically displayed before the scanner 2 reads image information from the document, and corresponds to a search waiting state.

画面132が表示されている状態で、ユーザが音声認識開始キー14(図2)を押下すると、ユーザからの音声入力が受付可能状態になる。このとき、操作パネル8の表示は、画面134のように変化する。この画面134が表示されている状態では、ユーザからの音声入力があれば、それに応答して音声認識を実行できる状態となっている。   When the user presses the voice recognition start key 14 (FIG. 2) while the screen 132 is displayed, the voice input from the user can be accepted. At this time, the display on the operation panel 8 changes like a screen 134. When the screen 134 is displayed, if there is a voice input from the user, the voice recognition can be executed in response thereto.

画面134が表示されている状態で、ユーザが「いわいひでたか」と発声したとする。すると、このユーザが発声した音声が音声認識され、文字列が出力される。続いて、この認識された「いわいひでたか」に基づいて宛先検索が行なわれる。図4に示すように、アドレス帳36には、「いわいひでたか」という同じ“よみ”を有する2つの宛先「岩井英剛」および「岩居秀隆」が登録されており、この2つの宛先が検索結果として、画面136に表示される。   It is assumed that the user utters “Iwai Hidetaka” while the screen 134 is displayed. Then, the voice uttered by the user is recognized and a character string is output. Subsequently, a destination search is performed based on the recognized “Iwai Hidetaka”. As shown in FIG. 4, in the address book 36, two destinations “Hidetaka Iwai” and “Hidetaka Iwai” having the same “reading” of “Iwai Hidetaka” are registered. The search result is displayed on the screen 136.

この画面136では、「漢字入力」ボタン136aおよび「読み仮名入力」ボタン136bが選択可能に表示される。ボタン136aは、上述の(1)ユーザの発声に引き続いてユーザがさらに入力する文字(第2検索ターム)に基づく絞り込みの要求を受付ける。一方、ボタン136bは、上述の(2)ユーザの発声に引き続いてユーザがさらに発声した内容(第3検索ターム)に基づく絞り込みの要求を受付ける。   On this screen 136, an “input Kanji” button 136 a and an “input reading” button 136 b are displayed so as to be selectable. The button 136a accepts a request for narrowing down based on the character (second search term) further input by the user following the above-mentioned (1) user utterance. On the other hand, the button 136b accepts a narrowing request based on the content (third search term) further uttered by the user following the above-mentioned (2) user utterance.

画面136が表示されている状態で、ユーザが「漢字入力」ボタン136aを押下すると、操作パネル8には、ユーザからの文字の入力を受付ける複数のボタンがキーボード配列された画面138が表示される。画面138が表示されている状態で、ユーザが画面上のキーを操作して、「えい」という文字を入力したとする。また、画面138には、入力ダイアログに、ユーザ入力した平仮名「えい」が反映される。   When the user presses the “Kanji input” button 136a while the screen 136 is displayed, the operation panel 8 displays a screen 138 in which a plurality of buttons that accept input of characters from the user are arranged in a keyboard. . It is assumed that the user operates the keys on the screen and inputs the characters “E” while the screen 138 is displayed. Also, on the screen 138, the hiragana “Ei” input by the user is reflected in the input dialog.

さらに、ユーザが「変換」ボタン138aを押下すると、平仮名「えい」に対する仮名漢字変換処理が実行される。この仮名漢字変換処理によって、ユーザが、平仮名「えい」を漢字「英」に変換したものとする。この漢字「英」が「固有漢字」として扱われる。   Further, when the user presses the “conversion” button 138a, kana-kanji conversion processing for hiragana “e” is executed. It is assumed that the user has converted the hiragana “e” into the kanji “English” by this kana-kanji conversion process. This Chinese character “English” is treated as “Inherent Kanji”.

画面140には、入力ダイアログに、ユーザによる仮名漢字変換の結果である漢字「英」(第2検索ターム)が反映されている状態を示す。さらに、ユーザが「OK」ボタン140aを押下すると、画面136に表示されている複数の宛先のうち、その「名前」に「固有漢字」である「英」を含むものだけに絞り込まれる。この結果、画面142に示すように、「いわいひでたか」という同じ“よみ”を有する2つの宛先「岩井英剛」および「岩居秀隆」のうち、漢字「英」を含む宛先である「岩井英剛」のみが表示されるように、画面の内容が更新される。   Screen 140 shows a state in which the input dialog reflects the Chinese character “English” (second search term) as a result of the kana-kanji conversion by the user. Further, when the user presses the “OK” button 140 a, only a plurality of destinations displayed on the screen 136 are narrowed down to those whose “name” includes “English” which is “unique Kanji”. As a result, as shown in the screen 142, of the two destinations “Iwai Hidetaka” and “Iwai Hidetaka” having the same “reading” “Iwai Hidetaka”, the destination including the Chinese character “English” “Iwai” The contents of the screen are updated so that only “Engyo” is displayed.

一方、画面136が表示されている状態で、ユーザが「読み仮名入力」ボタン136bを押下した場合の操作画面例を図13および図14に示す。   On the other hand, FIG. 13 and FIG. 14 show examples of operation screens when the user presses the “Reading Kana” button 136b while the screen 136 is displayed.

図13を参照して、画面132,134,136については、図12と同様である。画面136が表示されている状態で、ユーザが「読み仮名入力」ボタン136bを押下すると、操作パネル8には、ユーザからの文字の入力を受付ける複数のボタンがキーボード配列された画面144が表示される。画面144が表示されている状態で、ユーザが画面上のキーを操作して、「えい」という文字を入力したとする。この平仮名「えい」が「固有よみ」として扱われる。また、画面144には、入力ダイアログに、ユーザが入力した「えい」が反映されている状態を示す。   Referring to FIG. 13, screens 132, 134, and 136 are the same as those in FIG. When the user presses the “input reading” button 136b while the screen 136 is displayed, the operation panel 8 displays a screen 144 on which a plurality of buttons for accepting input of characters from the user are arranged in a keyboard. The It is assumed that the user operates the keys on the screen and inputs the character “Ei” while the screen 144 is displayed. This Hiragana “Ei” is treated as “Unique”. In addition, the screen 144 shows a state in which “i” input by the user is reflected in the input dialog.

さらに、ユーザが「OK」ボタン144aを押下すると、漢字−よみ対応リスト38から、入力された「固有よみ」を有する漢字が取得され、画面136に表示されている複数の宛先のうち、その「名前」に「固有よみ」に基づいて取得された漢字を含むものだけに絞り込まれる。この結果、画面146に示すように、「いわいひでたか」という同じ“よみ”を有する2つの宛先「岩井英剛」および「岩居秀隆」のうち、「えい」という“よみ”を有する漢字「英」を含む宛先である「岩井英剛」のみが表示されるように、画面の内容が更新される。   Further, when the user presses the “OK” button 144 a, the Chinese character having the input “unique character” is acquired from the Chinese character-reading correspondence list 38, and among the plurality of destinations displayed on the screen 136, the “ Narrowed to names that contain kanji acquired based on "Unique Yomi" in "Name". As a result, as shown in the screen 146, of the two destinations “Iwai Hidetaka” and “Iwai Hidetaka” having the same “reading” “Iwai Hidetaka”, the kanji “ The contents of the screen are updated so that only “Ei Go Iwai”, which is a destination including “English”, is displayed.

上述の図13に示すような「固有よみ」を画面上のボタンを操作して入力する構成に代えて、ユーザからの音声入力によって入力するようにしてもよい。以下、このような構成について、図14を参照して説明する。   Instead of the configuration in which the “unique reading” as shown in FIG. 13 is input by operating a button on the screen, it may be input by voice input from the user. Hereinafter, such a configuration will be described with reference to FIG.

図14を参照して、画面136が表示されている状態で、ユーザが「読み仮名入力」ボタン136bを押下した後、音声認識開始キー14(図2)を押下したとする。さらに、ユーザは、「えい」と発声したとする。すると、このユーザが発声した音声が音声認識され、文字列が出力される。続いて、この認識された「えい」を反映した画面148が表示される。この認識された「えい」が「固有よみ」として扱われる。   Referring to FIG. 14, it is assumed that the user presses voice recognition start key 14 (FIG. 2) after pressing “input reading” button 136b while screen 136 is displayed. Furthermore, it is assumed that the user utters “e”. Then, the voice uttered by the user is recognized and a character string is output. Subsequently, a screen 148 reflecting the recognized “Ei” is displayed. This recognized “e” is treated as “unique read”.

その後、漢字−よみ対応リスト38から、入力された「えい」を“よみ”として有する漢字が取得され、画面136に表示されている複数の宛先のうち、その「名前」に「えい」に基づいて取得された漢字を含むものだけに絞り込まれる。この結果、画面146に示すように、「いわいひでたか」という同じ“よみ”を有する2つの宛先「岩井英剛」および「岩居秀隆」のうち、「えい」という“よみ”を有する漢字「英」を含む宛先である「岩井英剛」のみが表示されるように、画面の内容が更新される。   After that, a kanji character having the input “ei” as “reading” is acquired from the kanji-reading correspondence list 38, and among the plurality of destinations displayed on the screen 136, the “name” is based on “ei”. Narrow down to only those containing kanji acquired. As a result, as shown in the screen 146, of the two destinations “Iwai Hidetaka” and “Iwai Hidetaka” having the same “reading” “Iwai Hidetaka”, the kanji “ The contents of the screen are updated so that only “Ei Go Iwai”, which is a destination including “English”, is displayed.

<処理手順>
図15および図16は、この発明の実施の形態2に従う宛先検索の処理手順を示すフローチャートである。なお、図15および図16に示すフローチャートは、システムインターフェイス22に含まれるCPU20がプログラムを実行することで提供される。
<Processing procedure>
15 and 16 are flowcharts showing a destination search processing procedure according to the second embodiment of the present invention. Note that the flowcharts shown in FIGS. 15 and 16 are provided when the CPU 20 included in the system interface 22 executes a program.

図15および図16を参照して、まず、CPU20は、ユーザによる送信操作を受付けたか否かを判断する(ステップS200)。ユーザによる送信操作を受付けていない場合(ステップS200においてNOの場合)には、ステップS200の処理が繰返される。   Referring to FIGS. 15 and 16, first, CPU 20 determines whether or not a transmission operation by the user has been accepted (step S200). If the transmission operation by the user is not accepted (NO in step S200), the process of step S200 is repeated.

一方、ユーザによる送信操作を受付けた場合(ステップS200においてYESの場合)には、CPU20は、タッチパネル16に宛先一覧画面(図12〜図14の画面132)を表示する(ステップS202)。続いて、CPU20は、音声認識開始キー14(図2)の押下を待つ(ステップS204)。音声認識開始キー14の押下後、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS204)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS206)。音声認識処理が成功しなかった場合(ステップS206においてNOの場合)には、ステップS204以下の処理が繰返される。   On the other hand, when the transmission operation by the user is accepted (YES in step S200), the CPU 20 displays the destination list screen (screen 132 in FIGS. 12 to 14) on the touch panel 16 (step S202). Subsequently, the CPU 20 waits for pressing of the voice recognition start key 14 (FIG. 2) (step S204). After the voice recognition start key 14 is pressed, the CPU 20 waits for voice input by the user. Then, the CPU 20 executes a voice recognition process in response to the voice input by the user (step S204). After executing the voice recognition process, the CPU 20 determines whether or not the voice recognition process is successful (step S206). If the speech recognition process is not successful (NO in step S206), the processes in and after step S204 are repeated.

一方、音声認識処理が成功した場合(ステップS206においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果を第1検索タームに設定する(ステップS208)。続いて、CPU20は、第1検索タームに基づいて、アドレス帳36に登録されている宛先検索を行なう(ステップS210)。より具体的には、CPU20は、アドレス帳36に登録されているエントリのうち、その「よみ」に第1検索タームを含むものを抽出する。そして、CPU20は、ステップS210において取得された宛先を、タッチパネル16に選択可能に表示する(ステップS212)。さらに、CPU20は、ステップS210において複数の宛先が抽出されたか否かを判断する(ステップS214)。ステップS210において複数の宛先が抽出されなかった場合(ステップS214においてNOの場合)には、CPU20は、ステップS290以下の処理を実行する。   On the other hand, when the voice recognition process is successful (YES in step S206), the CPU 20 sets the recognition result obtained by the voice recognition process as the first search term (step S208). Subsequently, the CPU 20 performs a destination search registered in the address book 36 based on the first search term (step S210). More specifically, the CPU 20 extracts an entry registered in the address book 36 that includes the first search term in its “reading”. Then, CPU 20 displays the destination acquired in step S210 on touch panel 16 so as to be selectable (step S212). Further, the CPU 20 determines whether or not a plurality of destinations are extracted in step S210 (step S214). If a plurality of destinations are not extracted in step S210 (NO in step S214), the CPU 20 executes the processing from step S290 onward.

ステップS210において複数の宛先が抽出された場合(ステップS214においてYESの場合)には、CPU20は、タッチパネル16に「漢字入力」または「読み仮名入力」に対する選択画面をさらに表示する(ステップS216)。   If a plurality of destinations are extracted in step S210 (YES in step S214), CPU 20 further displays a selection screen for “Kanji input” or “input reading” on touch panel 16 (step S216).

その後、CPU20は、タッチパネル16に対して何らかのユーザ操作がなされたか否かを判断する(ステップS218)。タッチパネル16に対して何らかのユーザ操作がなされていない場合(ステップS218においてNOの場合)には、ステップS218の処理が繰返される。   Thereafter, the CPU 20 determines whether any user operation has been performed on the touch panel 16 (step S218). If any user operation is not performed on touch panel 16 (NO in step S218), the process of step S218 is repeated.

一方、タッチパネル16に対して何らかのユーザ操作がなされた場合(ステップS218においてYESの場合)には、CPU20は、ユーザ操作に応答して、いずれかの宛先、「漢字入力」、「読み仮名入力」のいずれが選択されたかを判断する(ステップS220)。   On the other hand, if any user operation is performed on touch panel 16 (YES in step S218), CPU 20 responds to the user operation by responding to the user operation with any destination, “Kanji input”, “Yomikana input”. It is determined which of these has been selected (step S220).

いずれかの宛先が選択された場合(ステップS220において「宛先」)、すなわちステップS210において抽出された複数の宛先のうち特定のものが指定された場合には、CPU20は、対応する宛先の登録内容をFAX通信部32もしくはIP通信部34へ渡す(ステップS222)。その後、必要な通信処理が実行される。   When any one of the destinations is selected (“Destination” in step S220), that is, when a specific one of the plurality of destinations extracted in step S210 is designated, the CPU 20 registers the registered contents of the corresponding destination. Is transferred to the FAX communication unit 32 or the IP communication unit 34 (step S222). Thereafter, necessary communication processing is executed.

一方、「漢字入力」が選択された場合(ステップS220において「漢字入力」の場合)、すなわち「漢字入力」ボタン136aが押下された場合には、CPU20は、ステップS230以下の処理を実行する。一方、「読み仮名入力」が選択された場合(ステップS222において「読み仮名入力」の場合)、すなわち「読み仮名入力」ボタン136bが押下された場合には、CPU20は、ステップS250以下の処理を実行する。   On the other hand, when “Kanji input” is selected (in the case of “Kanji input” in step S220), that is, when the “Kanji input” button 136a is pressed, the CPU 20 executes the processing from step S230. On the other hand, when “input reading” is selected (in the case of “input reading” in step S222), that is, when the “input reading” button 136b is pressed, the CPU 20 performs the processing from step S250 onward. Execute.

ステップS230において、まず、CPU20は、タッチパネル16にキーボード入力画面(図12の画面138)を表示する。続いて、CPU20は、タッチパネル16に対して何らかのユーザ操作がなされたか否かを判断する(ステップS232)。タッチパネル16に対して何らかのユーザ操作がなされていない場合(ステップS232においてNOの場合)には、ステップS232の処理が繰返される。   In step S230, first, the CPU 20 displays a keyboard input screen (screen 138 in FIG. 12) on the touch panel 16. Subsequently, the CPU 20 determines whether any user operation has been performed on the touch panel 16 (step S232). If any user operation is not performed on touch panel 16 (NO in step S232), the process of step S232 is repeated.

一方、タッチパネル16に対して何らかのユーザ操作がなされた場合(ステップS232においてYESの場合)には、CPU20は、ユーザ操作されたボタンの種類を判断する(ステップS234)。ユーザ操作されたボタンが文字入力ボタンである場合(ステップS234において「文字入力」)には、CPU20は、ユーザ操作されたボタンに応じた文字列を受付ける(ステップS236)。そして、ステップS232の処理が繰返される。   On the other hand, if any user operation is performed on touch panel 16 (YES in step S232), CPU 20 determines the type of button operated by the user (step S234). If the button operated by the user is a character input button (“character input” in step S234), the CPU 20 accepts a character string corresponding to the button operated by the user (step S236). Then, the process of step S232 is repeated.

また、ユーザ操作されたボタンが「変換」ボタン138aである場合(ステップS234において「変換」)には、CPU20は、現在受付けている文字列に対して、仮名漢字変換処理を実行する(ステップS238)。続いて、CPU20は、「OK」ボタン140aが押下されたか否かを判断する(ステップS240)。「OK」ボタン140aが押下されていない場合(ステップS240においてNOの場合)には、ステップS240の処理が繰返される。   If the button operated by the user is the “conversion” button 138a (“conversion” in step S234), the CPU 20 executes kana-kanji conversion processing for the currently accepted character string (step S238). ). Subsequently, the CPU 20 determines whether or not the “OK” button 140a has been pressed (step S240). If “OK” button 140a is not pressed (NO in step S240), the process of step S240 is repeated.

「OK」ボタン140aが押下された場合(ステップS240においてYESの場合)には、CPU20は、仮名漢字変換処理によって得られた漢字を第2検索タームに設定する(ステップS242)。さらに、CPU20は、第2検索タームに基づいて、ステップS210において抽出された複数の宛先を絞り込む(ステップS244)。より具体的には、CPU20は、ステップS210において抽出された複数の宛先のうち、その「名前」に第2検索タームを含むものに絞り込む。   When “OK” button 140a is pressed (YES in step S240), CPU 20 sets the kanji obtained by the kana-kanji conversion process as the second search term (step S242). Further, the CPU 20 narrows down a plurality of destinations extracted in step S210 based on the second search term (step S244). More specifically, the CPU 20 narrows down the plurality of destinations extracted in step S210 to those whose “name” includes the second search term.

続いて、CPU20は、絞り込んだ宛先が複数存在するか否かを判断する(ステップS246)。検索された宛先が複数存在する場合(ステップS246においてYESの場合)には、ステップS232以下の処理が繰返される。一方、検索された宛先が複数存在しない場合(ステップS246においてNOの場合)には、CPU20は、ステップS290以下の処理を実行する。   Subsequently, the CPU 20 determines whether or not there are a plurality of narrowed destinations (step S246). If there are a plurality of searched destinations (YES in step S246), the processes in and after step S232 are repeated. On the other hand, when there are not a plurality of searched destinations (NO in step S246), CPU 20 executes the processing in step S290 and subsequent steps.

これに対して、ステップS250において、まず、CPU20は、タッチパネル16にキーボード入力画面(図13の画面144)を表示する。続いて、CPU20は、音声認識開始キー14が押下されたか否かを判断する(ステップS252)。音声認識開始キー14が押下されていない場合(ステップS252においてNOの場合)には、CPU20は、タッチパネル16に対して何らかのユーザ操作がなされたか否かを判断する(ステップS254)。タッチパネル16に対して何らかのユーザ操作がなされていない場合(ステップS254においてNOの場合)には、ステップS254の処理が繰返される。   On the other hand, in step S250, first, the CPU 20 displays a keyboard input screen (screen 144 in FIG. 13) on the touch panel 16. Subsequently, the CPU 20 determines whether or not the voice recognition start key 14 has been pressed (step S252). If the voice recognition start key 14 has not been pressed (NO in step S252), the CPU 20 determines whether any user operation has been performed on the touch panel 16 (step S254). If any user operation is not performed on touch panel 16 (NO in step S254), the process of step S254 is repeated.

一方、タッチパネル16に対して何らかのユーザ操作がなされた場合(ステップS254においてYESの場合)には、CPU20は、ユーザ操作されたボタンの種類を判断する(ステップS256)。ユーザ操作されたボタンが文字入力ボタンである場合(ステップS256において「文字入力」)には、CPU20は、ユーザ操作されたボタンに応じた文字列を受付ける(ステップS258)。そして、ステップS256の処理が繰返される。一方、ユーザ操作されたボタンが「OK」ボタン144aである場合(ステップS256において「OK」)には、CPU20は、現在受付けている文字列を第3検索タームに設定する(ステップS260)。さらに、CPU20は、第3検索タームに基づいて、ステップS210において抽出された複数の宛先を絞り込む(ステップS262)。より具体的には、CPU20は、まず、漢字−よみ対応リスト38を参照して、第3検索タームの“よみ”を有する漢字を抽出する。そして、CPU20は、ステップS210において抽出された複数の宛先のうち、その「名前」に漢字−よみ対応リスト38から抽出された漢字のいずれかを含むものに絞り込む。   On the other hand, if any user operation is performed on touch panel 16 (YES in step S254), CPU 20 determines the type of button operated by the user (step S256). When the user operated button is a character input button (“character input” in step S256), the CPU 20 receives a character string corresponding to the user operated button (step S258). Then, the process of step S256 is repeated. On the other hand, when the button operated by the user is “OK” button 144a (“OK” in step S256), CPU 20 sets the currently accepted character string as the third search term (step S260). Further, the CPU 20 narrows down a plurality of destinations extracted in step S210 based on the third search term (step S262). More specifically, the CPU 20 first refers to the kanji-reading correspondence list 38 and extracts the kanji having “reading” of the third search term. Then, the CPU 20 narrows down the plurality of destinations extracted in step S210 to those whose “name” includes any of the Chinese characters extracted from the Chinese character-reading correspondence list 38.

続いて、CPU20は、絞り込んだ宛先が複数存在するか否かを判断する(ステップS264)。検索された宛先が複数存在する場合(ステップS264においてYESの場合)には、ステップS250以下の処理が繰返される。一方、検索された宛先が複数存在しない場合(ステップS264においてNOの場合)には、CPU20は、ステップS290以下の処理を実行する。   Subsequently, the CPU 20 determines whether or not there are a plurality of narrowed destinations (step S264). If there are a plurality of searched destinations (YES in step S264), the processes in and after step S250 are repeated. On the other hand, when there are not a plurality of searched destinations (NO in step S264), CPU 20 executes the processing in step S290 and subsequent steps.

一方、音声認識開始キー14が押下された場合(ステップS252においてYESの場合)には、CPU20は、タッチパネル16の表示をキーボード入力画面(図14の画面148)を更新し(ステップS270)、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS272)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS274)。音声認識処理が成功しなかった場合(ステップS274においてNOの場合)には、ステップS272以下の処理が繰返される。   On the other hand, when the voice recognition start key 14 is pressed (YES in step S252), the CPU 20 updates the display of the touch panel 16 on the keyboard input screen (screen 148 in FIG. 14) (step S270), and the user Wait for voice input. Then, the CPU 20 executes a voice recognition process in response to the voice input by the user (step S272). After executing the voice recognition process, the CPU 20 determines whether the voice recognition process is successful (step S274). If the speech recognition process is not successful (NO in step S274), the processes in and after step S272 are repeated.

これに対して、音声認識処理が成功した場合(ステップS274においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果を第3検索タームに設定する(ステップS276)。さらに、CPU20は、第3検索タームに基づいて、ステップS210において抽出された複数の宛先を絞り込む(ステップS278)。より具体的には、CPU20は、まず、漢字−よみ対応リスト38を参照して、第3検索タームの“よみ”を有する漢字を抽出する。そして、CPU20は、ステップS210において抽出された複数の宛先のうち、その「名前」に漢字−よみ対応リスト38から抽出された漢字のいずれかを含むものに絞り込む。   On the other hand, when the voice recognition process is successful (YES in step S274), the CPU 20 sets the recognition result obtained by the voice recognition process as the third search term (step S276). Further, the CPU 20 narrows down a plurality of destinations extracted in step S210 based on the third search term (step S278). More specifically, the CPU 20 first refers to the kanji-reading correspondence list 38 and extracts the kanji having “reading” of the third search term. Then, the CPU 20 narrows down the plurality of destinations extracted in step S210 to those whose “name” includes any of the Chinese characters extracted from the Chinese character-reading correspondence list 38.

続いて、CPU20は、絞り込んだ宛先が複数存在するか否かを判断する(ステップS280)。検索された宛先が複数存在する場合(ステップS280においてYESの場合)には、ステップS250以下の処理が繰返される。一方、検索された宛先が複数存在しない場合(ステップS280においてNOの場合)には、CPU20は、ステップS290以下の処理を実行する。   Subsequently, the CPU 20 determines whether or not there are a plurality of narrowed destinations (step S280). If there are a plurality of searched destinations (YES in step S280), the processes in and after step S250 are repeated. On the other hand, when there are not a plurality of searched destinations (NO in step S280), CPU 20 executes the processes in and after step S290.

ステップS290において、CPU20は、ステップS242、ステップS260もしくはステップS278において絞り込まれた宛先を、タッチパネル16に選択可能に表示する。さらに、CPU20は、表示された宛先が選択されると、対応する宛先の登録内容をFAX通信部32もしくはIP通信部34へ渡す(ステップS292)。その後、必要な通信処理が実行される。   In step S290, the CPU 20 displays the destinations narrowed down in step S242, step S260, or step S278 on the touch panel 16 so as to be selectable. Further, when the displayed destination is selected, the CPU 20 passes the registered contents of the corresponding destination to the FAX communication unit 32 or the IP communication unit 34 (step S292). Thereafter, necessary communication processing is executed.

<実施の形態2による作用・効果>
この発明の実施の形態2によれば、まず、ユーザが発声する内容が音声認識された結果が第1検索ターム(第1の検索条件)に設定され、この第1の検索条件を満たす宛先が抽出されて、ユーザに提示される。そして、ユーザは、この定時された宛先を参照して、新たな内容を入力する。この引き続いて入力された内容が第2検索ターム(第2の検索条件)もしくは第3検索ターム(第2の検索条件)に設定される。そして、この第2の検索条件に基づいて、先に抽出される宛先に対して絞り込みが実行される。
<Operation / Effect of Embodiment 2>
According to the second embodiment of the present invention, first, the result of voice recognition of the content uttered by the user is set as the first search term (first search condition), and a destination satisfying the first search condition is set. Extracted and presented to the user. Then, the user inputs new contents with reference to the scheduled destination. The subsequently input content is set in the second search term (second search condition) or the third search term (second search condition). Then, based on the second search condition, narrowing down is performed on the destination extracted first.

そのため、ユーザは、宛先の一部の“よみ”を発声して宛先の候補を検索した上で、その検索結果に基づいて、さらに必要な検索条件を引き続いて入力することで、目的とする宛先に絞り込むことができる。したがって、ユーザは、既にアドレス帳36に登録されている宛先の類似度に応じて、必要な検索条件を追加的に入力するだけでよい。そのため、目的とする宛先を効率的に検索することができる。   For this reason, the user utters a part of “address” of the destination, searches for a destination candidate, and further inputs necessary search conditions based on the search result, so that the target destination can be obtained. Can be narrowed down to. Therefore, the user only needs to additionally input necessary search conditions according to the similarity of the destinations already registered in the address book 36. Therefore, the target destination can be searched efficiently.

また、この発明の実施の形態1によれば、宛先の名前全体の“よみ”を正確に覚えておかなくとも、当該名前に含まれる少なくとも1つの漢字の“よみ”が認識できれば、宛先検索を行なうことができる。そのため、人名などに用いられる特殊な“よみ”をもつ漢字が名前に含まれている場合であっても、目的とする宛先を効率的に検索することができる。   Further, according to the first embodiment of the present invention, even if the “reading” of the entire destination name is not accurately remembered, if the “reading” of at least one Chinese character included in the name can be recognized, the destination search is performed. Can be done. For this reason, even if the name includes a kanji character having a special “reading” used for a personal name or the like, the intended destination can be efficiently searched.

[実施の形態3]
上述の実施の形態1および2では、ユーザからの音声入力に対して音声認識を行なう構成について例示した。しかしながら、ユーザの声質、テンポ、リズム、抑揚などに影響を受けて、誤認識される場合も想定される。そこで、実施の形態3では、このような誤認識が生じた場合にも、効率的な宛先検索を行なう構成について例示する。
[Embodiment 3]
In the above-described first and second embodiments, the configuration in which voice recognition is performed with respect to voice input from the user is illustrated. However, there may be a case where the user's voice quality, tempo, rhythm, intonation, etc. are affected and misrecognized. Therefore, Embodiment 3 exemplifies a configuration for performing efficient destination search even when such erroneous recognition occurs.

本実施の形態に従うMFPの外観図および内部構成については、上述の図1〜図3,図5と同様であるので、詳細な説明は繰返さない。   Since the external view and internal configuration of the MFP according to the present embodiment are the same as those in FIGS. 1 to 3 and 5 described above, detailed description will not be repeated.

<本実施の形態に従う操作画面例>
以下、図17を参照して、本実施の形態に従う宛先検索の操作の一例を説明する。なお、本実施の形態に従う宛先検索の効果についての理解を容易化するために、アドレス帳36には、「いわいひでたか」という同じ“よみ”を有する2つの宛先「岩井英剛」および「岩居秀隆」、ならびに「いわきひでたか」という同じ“よみ”を有する2つの宛先「岩城英剛」および「岩木秀隆」が登録されているものとする。
<Example of operation screen according to this embodiment>
Hereinafter, an example of a destination search operation according to the present embodiment will be described with reference to FIG. In order to facilitate understanding of the effect of the destination search according to the present embodiment, the address book 36 includes two destinations “Eigo Iwai” and “Iwaiwa” having the same “reading” of “Iwai Hidetaka”. It is assumed that two addresses “Hidetaka Iwaki” and “Hidetaka Iwaki” having the same “reading” of “Ii Hidetaka” and “Iwaki Hidetaka” are registered.

図17は、この発明の実施の形態3に従う宛先検索の操作画面例(その1)を説明する図である。図18は、この発明の実施の形態3に従う宛先検索の概念を説明する図である。図19は、この発明の実施の形態3に従う宛先検索の操作画面例(その2)を説明する図である。   FIG. 17 is a diagram for explaining a destination search operation screen example (part 1) according to the third embodiment of the present invention. FIG. 18 is a diagram for explaining the concept of destination search according to the third embodiment of the present invention. FIG. 19 is a diagram for explaining a destination search operation screen example (part 2) according to the third embodiment of the present invention.

図17を参照して、ユーザがファクシミリなどを送信するための操作をすると、まず、操作パネル8には画面152が表示される。画面152には、アドレス帳36に登録されている各宛先が選択可能な状態で一覧表示される。この画面152は、典型的には、スキャナ2で原稿から画像情報を読取る前に表示され、検索待ち状態に相当する。   Referring to FIG. 17, when the user performs an operation for transmitting a facsimile or the like, first, screen 152 is displayed on operation panel 8. The screen 152 displays a list of destinations registered in the address book 36 in a selectable state. This screen 152 is typically displayed before the scanner 2 reads image information from the document, and corresponds to a search waiting state.

画面152が表示されている状態で、ユーザが音声認識開始キー14(図2)を押下すると、ユーザからの音声入力が受付可能状態になる。このとき、操作パネル8の表示は、画面154のように変化する。この画面154が表示されている状態では、ユーザからの音声入力があれば、それに応答して音声認識を実行できる状態となっている。   When the user presses the voice recognition start key 14 (FIG. 2) while the screen 152 is displayed, the voice input from the user can be accepted. At this time, the display on the operation panel 8 changes like a screen 154. When the screen 154 is displayed, if there is a voice input from the user, the voice recognition can be executed in response thereto.

画面154が表示されている状態で、ユーザが「いわい」と発声したとする。すると、このユーザが発声した音声に対して音声認識処理が実行される。図17に示す例では、「いわい」という発声が「いわき」と誤認識されたものとする。そして、画面156には、この誤認識された「いわき」に基づいて宛先検索が行なわれた結果が表示される。すなわち、アドレス帳36に登録されている宛先のうち、その「よみ」に「いわき」を含む、「岩城英剛」および「岩木秀隆」が抽出される。   It is assumed that the user utters “Iwaii” while the screen 154 is displayed. Then, voice recognition processing is executed for the voice uttered by the user. In the example illustrated in FIG. 17, it is assumed that the utterance “Iwai” is misrecognized as “Iwaki”. The screen 156 displays the result of the destination search based on the erroneously recognized “Iwaki”. That is, out of the destinations registered in the address book 36, “Iwaki Eigo” and “Iwaki Hidetaka” including “Iwaki” in “Yomi” are extracted.

さらに、本実施の形態では、音声入力に基づく宛先検索において、認識された音声と類似した“よみ”を有する宛先についても検索対象とする。この類似性の判断基準の一例として、認識された音声を構成する一部もしくは全部の音について、母音が同一であり、かつ子音が異なる範囲を類似範囲とすることができる。たとえば、「いわき」と「いわい」との間では、第1音および第2音は互いに一致し、第3音は異なっているが、両者の第3音の母音はいずれも「い」である。このような場合には、「いわき」と「いわい」とは互いに類似していると判断される。   Furthermore, in the present embodiment, in a destination search based on voice input, a destination having “reading” similar to the recognized voice is also set as a search target. As an example of the criterion for determining similarity, a range in which a vowel is the same and a consonant is different can be set as a similar range for some or all of the sounds constituting the recognized voice. For example, between “Iwaki” and “Iwaii”, the first sound and the second sound match each other and the third sound is different, but the vowels of the third sound of both are “i”. . In such a case, “Iwaki” and “Iwaii” are determined to be similar to each other.

本実施の形態では、このような類似性が判断される結果、音声認識された「いわき」に類似する「いわい」を、その「よみ」に有する宛先がアドレス帳36から抽出される。すなわち、画面158に示すように、音声認識の結果と完全一致する“よみ”を有する「岩城英剛」および「岩木秀隆」に加えて、音声認識の結果と類似する“よみ”を有する「岩城英剛」および「岩木秀隆」が追加的に抽出される。そして、これらの宛先は、いずれも選択可能に表示されるので、ユーザは、アドレス帳から選択された宛先のうち、所望するものをより効率的に選択することができる。   In the present embodiment, as a result of determining such similarity, a destination having “Iwaii” similar to “Iwaki” recognized as speech is extracted from the address book 36. That is, as shown on the screen 158, in addition to “Iwaki Eigo” and “Iwaki Hidetaka” having “reading” that completely matches the voice recognition result, “Iwaki” having “reading” similar to the voice recognition result Eigo and Hidetaka Iwaki are additionally extracted. Since these destinations are displayed so as to be selectable, the user can more efficiently select a desired destination among the destinations selected from the address book.

図18には、このような類似範囲の概念を示す。図18に示すように、「いわき」という“よみ”と「いわい」という“よみ”とは互いに類似の関係にある。そして、アドレス帳36からは、それぞれに含まれる宛先が候補として抽出される。   FIG. 18 shows the concept of such a similar range. As shown in FIG. 18, “reading” “Iwaki” and “reading” “Iwaii” have a similar relationship with each other. Then, from the address book 36, destinations included in each are extracted as candidates.

なお、上述したような類似性の判断手順の一例としては、2つの“よみ”を比較することで相違する音を特定し、その相違する音の母音が互いに一致するか否かを判断する。なお、相違する音の数が所定数以下である場合に限って、類似性の判断をしてもよい。   As an example of the procedure for determining similarity as described above, two “readings” are compared to identify different sounds, and it is determined whether the vowels of the different sounds match each other. The similarity may be determined only when the number of different sounds is a predetermined number or less.

一方、ユーザによるボタン操作によって入力した文字に基づいて検索を行なう場合には、上述のような類似性の判断は行われない。すなわち、図19に示すように、画面152が表示されている状態で、ユーザが宛先検索ボタン152aを押下すると、ユーザからの文字の入力を受付ける複数のボタンがキーボード配列された画面160が表示される。画面160が表示されている状態で、ユーザが画面上のキーを操作して、「いわい」という文字を入力した後、「OK」ボタン160aを押下すると、検索結果を表わす画面162が表示される。この画面162では、アドレス帳36に含まれる宛先のうち、その「よみ」に「いわい」を含むものが抽出される。この宛先検索では、「いわい」に類似した「いわき」をその「よみ」に含む宛先は抽出されない。   On the other hand, when a search is performed based on a character input by a button operation by the user, the above similarity determination is not performed. That is, as shown in FIG. 19, when the user presses the destination search button 152a in a state where the screen 152 is displayed, a screen 160 on which a plurality of buttons that accept input of characters from the user are arranged is displayed. The When the user operates the keys on the screen to input the characters “Iwai” and then presses the “OK” button 160a while the screen 160 is displayed, a screen 162 representing the search result is displayed. . In this screen 162, out of the destinations included in the address book 36, those whose “reading” includes “Iwaii” are extracted. In this destination search, a destination including “Iwaki” similar to “Iwaii” in its “reading” is not extracted.

<処理手順>
図20は、この発明の実施の形態3に従う宛先検索の処理手順を示すフローチャートである。なお、図20に示すフローチャートは、システムインターフェイス22に含まれるCPU20がプログラムを実行することで提供される。
<Processing procedure>
FIG. 20 is a flowchart showing a destination search processing procedure according to the third embodiment of the present invention. Note that the flowchart shown in FIG. 20 is provided when the CPU 20 included in the system interface 22 executes a program.

図20を参照して、まず、CPU20は、ユーザによる送信操作を受付けたか否かを判断する(ステップS300)。ユーザによる送信操作を受付けていない場合(ステップS300においてNOの場合)には、ステップS300の処理が繰返される。   Referring to FIG. 20, first, CPU 20 determines whether or not a transmission operation by the user has been accepted (step S300). If the transmission operation by the user is not accepted (NO in step S300), the process of step S300 is repeated.

一方、ユーザによる送信操作を受付けた場合(ステップS300においてYESの場合)には、CPU20は、タッチパネル16に宛先一覧画面(図17および図19の画面152)を表示する(ステップS302)。続いて、CPU20は、音声認識開始キー14(図2)が押下されたか否かを判断する(ステップS304)。   On the other hand, when the transmission operation by the user is accepted (YES in step S300), CPU 20 displays a destination list screen (screen 152 in FIGS. 17 and 19) on touch panel 16 (step S302). Subsequently, the CPU 20 determines whether or not the voice recognition start key 14 (FIG. 2) has been pressed (step S304).

音声認識開始キー14が押下された場合(ステップS304においてYESの場合)には、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS306)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS308)。音声認識処理が成功しなかった場合(ステップS308においてNOの場合)には、ステップS306以下の処理が繰返される。これに対して、音声認識処理が成功した場合(ステップS308においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果に基づいて宛先検索を行なう(ステップS310)。続いて、CPU20は、音声認識処理によって得られた認識結果に類似する“よみ”を有する宛先を抽出する(ステップS312)。そして、処理はステップS340へ進む。   When the voice recognition start key 14 is pressed (YES in step S304), the CPU 20 waits for voice input by the user. Then, the CPU 20 executes a voice recognition process in response to the voice input by the user (step S306). After executing the voice recognition process, the CPU 20 determines whether or not the voice recognition process is successful (step S308). If the voice recognition process has not succeeded (NO in step S308), the processes in and after step S306 are repeated. On the other hand, if the speech recognition process is successful (YES in step S308), CPU 20 performs a destination search based on the recognition result obtained by the speech recognition process (step S310). Subsequently, the CPU 20 extracts a destination having “reading” similar to the recognition result obtained by the voice recognition process (step S312). Then, the process proceeds to step S340.

音声認識開始キー14が押下されていない場合(ステップS304においてNOの場合)には、CPU20は、「宛先検索」ボタン152aが押下されたか否かを判断する(ステップS320)。「宛先検索」ボタン152aが押下されていない場合(ステップS320においてNOの場合)には、ステップS304以下の処理が繰返される。   If the voice recognition start key 14 has not been pressed (NO in step S304), the CPU 20 determines whether or not the “destination search” button 152a has been pressed (step S320). If “search for destination” button 152a has not been pressed (NO in step S320), the processes in and after step S304 are repeated.

「宛先検索」ボタン152aが押下された場合(ステップS320においてYESの場合)には、CPU20は、タッチパネル16にキーボード入力画面(図19の画面160)を表示する(ステップS322)。続いて、CPU20は、タッチパネル16に対して何らかのユーザ操作がなされたか否かを判断する(ステップS324)。タッチパネル16に対して何らかのユーザ操作がなされていない場合(ステップS324においてNOの場合)には、ステップS324の処理が繰返される。   When the “search for destination” button 152a is pressed (YES in step S320), the CPU 20 displays a keyboard input screen (screen 160 in FIG. 19) on the touch panel 16 (step S322). Subsequently, the CPU 20 determines whether any user operation has been performed on the touch panel 16 (step S324). If any user operation is not performed on touch panel 16 (NO in step S324), the process in step S324 is repeated.

一方、タッチパネル16に対して何らかのユーザ操作がなされた場合(ステップS324においてYESの場合)には、CPU20は、ユーザ操作されたボタンの種類を判断する(ステップS326)。ユーザ操作されたボタンが文字入力ボタンである場合(ステップS326において「文字入力」)には、CPU20は、ユーザ操作されたボタンに応じた文字列を受付ける(ステップS328)。そして、ステップS324以下の処理が繰返される。   On the other hand, if any user operation is performed on touch panel 16 (YES in step S324), CPU 20 determines the type of button operated by the user (step S326). If the button operated by the user is a character input button (“character input” in step S326), the CPU 20 accepts a character string corresponding to the button operated by the user (step S328). And the process after step S324 is repeated.

一方、ユーザ操作されたボタンが「OK」ボタン160aである場合(ステップS326において「OK」)には、CPU20は、現在受付けている文字列に基づいて宛先検索を行なう(ステップS330)。そして、処理はステップS340へ進む。   On the other hand, when the button operated by the user is “OK” button 160a (“OK” in step S326), CPU 20 performs a destination search based on the currently accepted character string (step S330). Then, the process proceeds to step S340.

ステップS340において、CPU20は、1つ以上の宛先が抽出されたか否かを判断する。宛先がまったく抽出されていない場合(ステップS340においてNOの場合)には、ステップS304以下の処理が繰返される。   In step S340, the CPU 20 determines whether one or more destinations have been extracted. If no destination has been extracted (NO in step S340), the processing in step S304 and subsequent steps is repeated.

一方、1つ以上の宛先が抽出されている場合(ステップS340においてYESの場合)には、CPU20は、ステップS310もしくはステップS330において抽出された1つ以上の宛先を、タッチパネル16に選択可能に表示する(ステップS342)。さらに、CPU20は、表示された宛先が選択されると、対応する宛先の登録内容をFAX通信部32もしくはIP通信部34へ渡す(ステップS344)。その後、必要な通信処理が実行される。   On the other hand, if one or more destinations have been extracted (YES in step S340), CPU 20 displays on touch panel 16 one or more destinations extracted in step S310 or step S330. (Step S342). Further, when the displayed destination is selected, the CPU 20 passes the registered contents of the corresponding destination to the FAX communication unit 32 or the IP communication unit 34 (step S344). Thereafter, necessary communication processing is executed.

なお、上述の実施の形態3では、ユーザが発声する音声入力、もしくはユーザが入力する文字入力に基づいて、類似した範囲の宛先を検索する処理について例示したが、これらの処理を上述の実施の形態1もしくは2に組入れることができるのは言うまでもない。   In the above-described third embodiment, the processing for searching for a destination in a similar range based on the voice input uttered by the user or the character input input by the user has been exemplified. Needless to say, it can be incorporated into Form 1 or 2.

<実施の形態3による作用・効果>
この発明の実施の形態3によれば、ユーザが発声する音声の認識結果に対して所定の類似範囲にある目的が抽出される。そのため、音声認識の精度が100%ではない場合であっても、目的とする宛先を効率的に検索することができる。
<Operation / Effect of Embodiment 3>
According to the third embodiment of the present invention, the purpose in the predetermined similar range is extracted with respect to the recognition result of the voice uttered by the user. Therefore, even when the accuracy of voice recognition is not 100%, a target destination can be efficiently searched.

[実施の形態4]
上述の実施の形態1〜3では、宛先に「漢字」を含む場合について例示した。一方、実施の形態4では、その登録内容が主としてアルファベットである宛先を効率的に検索する構成について例示する。
[Embodiment 4]
In the first to third embodiments described above, the case where “Kanji” is included in the destination is illustrated. On the other hand, the fourth embodiment exemplifies a configuration for efficiently searching for a destination whose registered content is mainly alphabetic.

本実施の形態に従うMFPの外観図および内部構成については、上述の図1〜図3,図5と同様であるので、詳細な説明は繰返さない。   Since the external view and internal configuration of the MFP according to the present embodiment are the same as those in FIGS. 1 to 3 and 5 described above, detailed description will not be repeated.

<本実施の形態に従う操作画面例>
本実施の形態に従う宛先検索は、上述の実施の形態1と類似しており、(1)ユーザが発声した内容(第1検索ターム)と、ユーザの発声に引き続いてユーザが入力した文字(第2検索ターム)との複合条件、(2)ユーザが最初に発声した内容(第1検索ターム)と、ユーザの発声に引き続いてユーザがさらに発声した内容(第3検索ターム)との複合条件、という2つの複合条件に基づいて宛先検索を行なう。
<Example of operation screen according to this embodiment>
The destination search according to the present embodiment is similar to the above-described first embodiment, and (1) the contents uttered by the user (first search term) and the characters (first search) input by the user following the user's utterance. (2 search terms), (2) compound conditions of the content that the user first uttered (first search term) and content that the user further uttered following the user's utterance (third search term), The destination search is performed based on the two compound conditions.

なお、上記(1)の宛先検索処理では、「第1検索ターム」が本発明の「第1の検索条件」に相当し、「第2検索ターム」が本発明の「第2の検索条件」に相当する。また、上記(2)の宛先検索処理では、「第1検索ターム」が本発明の「第1の検索条件」に相当し、「第3検索ターム」が本発明の「第2の検索条件」に相当する。   In the destination search process of (1) above, “first search term” corresponds to “first search condition” of the present invention, and “second search term” corresponds to “second search condition” of the present invention. It corresponds to. In the destination search process (2) above, “first search term” corresponds to “first search condition” of the present invention, and “third search term” corresponds to “second search condition” of the present invention. It corresponds to.

本実施の形態に従う宛先検索の効果についての理解を容易化するために、以下の説明では、図21に示すような登録内容を有するアドレス帳36Aが用いられるものとする。図21を参照して、アドレス帳36Aには、「種別」「名前」「登録内容」の3つの項目が規定された複数のエントリが登録されている。図4に示すアドレス帳36と同様に、「種別」の項目には、登録された宛先の種類を特定するための情報が格納される。「名前」の項目には、登録された宛先を特定するための情報が格納される。「登録内容」の項目には、ファクシミリ番号、電子メールアドレス、ファイルサーバのアドレス(URL:Uniform Resource Locator)などが格納される。なお、アドレス帳36Aには、図4に示すアドレス帳36に規定されている「よみ」の項目が省略されている。   In order to facilitate understanding of the effect of destination search according to the present embodiment, in the following description, it is assumed that address book 36A having registration contents as shown in FIG. 21 is used. Referring to FIG. 21, a plurality of entries in which three items of “type”, “name”, and “registration contents” are defined are registered in address book 36A. Similar to the address book 36 shown in FIG. 4, information for specifying the registered destination type is stored in the “type” item. Information for identifying the registered destination is stored in the item “name”. In the item “Registration contents”, a facsimile number, an e-mail address, a file server address (URL: Uniform Resource Locator), and the like are stored. In the address book 36A, the “read” item defined in the address book 36 shown in FIG. 4 is omitted.

以下、図22および図23を参照して、本実施の形態に従う宛先検索の操作の一例を説明する。図22は、この発明の実施の形態4に従う宛先検索の操作画面例(その1)を説明する図である。図23は、この発明の実施の形態4に従う宛先検索の操作画面例(その2)を説明する図である。   Hereinafter, an example of a destination search operation according to the present embodiment will be described with reference to FIG. 22 and FIG. FIG. 22 is a diagram for explaining a destination search operation screen example (part 1) according to the fourth embodiment of the present invention. FIG. 23 is a diagram for explaining a destination search operation screen example (part 2) according to the fourth embodiment of the present invention.

図22を参照して、ユーザがファクシミリなどを送信するための操作をすると、まず、操作パネル8には画面162が表示される。画面162には、アドレス帳36Aに登録されている各宛先が選択可能な状態で一覧表示される。この画面162は、典型的には、スキャナ2で原稿から画像情報を読取る前に表示され、検索待ち状態に相当する。   Referring to FIG. 22, when the user performs an operation for transmitting a facsimile or the like, first, screen 162 is displayed on operation panel 8. The screen 162 displays a list of destinations registered in the address book 36A in a selectable state. This screen 162 is typically displayed before the scanner 2 reads image information from the document, and corresponds to a search waiting state.

画面162が表示されている状態で、ユーザが音声認識開始キー14(図2)を押下すると、ユーザからの音声入力が受付可能状態になる。このとき、操作パネル8の表示は、画面164のように変化する。この画面164が表示されている状態では、ユーザからの音声入力があれば、それに応答して音声認識を実行できる状態となっている。   When the user presses the voice recognition start key 14 (FIG. 2) while the screen 162 is displayed, the voice input from the user can be accepted. At this time, the display on the operation panel 8 changes like a screen 164. When the screen 164 is displayed, if there is a voice input from the user, the voice recognition can be executed in response thereto.

画面164が表示されている状態で、ユーザが「James Bean」と発声したとする。すると、このユーザが発声した音声が認識される。続いて、この認識結果に基づいて宛先検索が行なわれる。図21に示すように、アドレス帳36Aには、ユーザが発声した音声と同一もしくは類似の“よみ”を有する「James Bean」および「James Been」という2つの宛先が登録されており、この2つの宛先が検索結果として、画面166に表示される。   Assume that the user utters “James Bean” while the screen 164 is displayed. Then, the voice uttered by the user is recognized. Subsequently, a destination search is performed based on the recognition result. As shown in FIG. 21, two destinations “James Bean” and “James Bean” having the same or similar “reading” as the voice uttered by the user are registered in the address book 36A. The destination is displayed on the screen 166 as a search result.

画面166が表示されている状態で、ユーザが「Input」ボタン166aを押下すると、操作パネル8の表示は、画面168のように変化する。この画面168では、ユーザの発声に引き続いてユーザが入力する文字(第2検索ターム)を受付ける。より具体的には、ユーザは、「James Bean」との発声に引き続いて、画面168上のキーを操作して、「BEAN」という文字を入力したとする。さらに、ユーザが「OK」ボタン168aを押下すると、画面166に表示されていた複数の宛先のうち、その「名前」に入力された「BEAN」を含むものだけに絞り込まれる。この結果、画面170に示すように、「James Bean」と発声した場合に検索された2つの宛先「James Bean」および「James Been」のうち、入力文字「BEAN」を含む宛先である「James Bean」のみが抽出されていることがわかる。   When the user presses the “Input” button 166 a while the screen 166 is displayed, the display on the operation panel 8 changes as shown in the screen 168. On this screen 168, a character (second search term) input by the user following the user's utterance is received. More specifically, it is assumed that the user operates the key on the screen 168 and inputs the character “BEAN” following the utterance of “James Bean”. Further, when the user presses the “OK” button 168 a, the plurality of destinations displayed on the screen 166 are narrowed down to those including “BEAN” input in “Name”. As a result, as shown in the screen 170, “James Bean” which is the destination including the input character “BEAN” out of the two destinations “James Bean” and “James Bean” searched when “James Bean” is spoken. "Is extracted.

一方、画面164が表示されている状態で、ユーザが「Successive」ボタン164aを押下した場合の操作画面例を図23に示す。   On the other hand, FIG. 23 shows an example of an operation screen when the user presses the “Successive” button 164a while the screen 164 is displayed.

図23を参照して、画面162および164については、図22と同様である。画面164が表示されている状態で、ユーザが「Successive」ボタン164aを押下した後、「James Bean」と発声したとする。さらに、ユーザは、この発声に引き続いて、「B」「E」「A」「N」と発声したとする。なお、最初の発声と引き続く発声との間を明確に区別するために、音声認識開始キー14の押下をユーザに要求してもよい。   Referring to FIG. 23, screens 162 and 164 are the same as those in FIG. It is assumed that the user utters “James Bean” after pressing the “Successive” button 164a while the screen 164 is displayed. Furthermore, it is assumed that the user utters “B”, “E”, “A”, and “N” following this utterance. Note that the user may be requested to press the voice recognition start key 14 in order to clearly distinguish between the first utterance and the subsequent utterance.

このようなユーザからの音声入力を検知すると、最初の認識結果「James Bean」を第1検索タームとし、引き続く認識結果「BEAN」を第3検索タームとする、複合条件に基づく宛先検索が実行される。すなわち、アドレス帳36Aに登録されている宛先のうち、第1検索タームと同一もしくは類似の“よみ”を有し、かつ第3検索タームをその名前に含むものが抽出される。この検索の結果、画面174には、その検索結果として、「James Bean」が選択可能に表示される。   When such a voice input from the user is detected, a destination search based on a composite condition is executed in which the first recognition result “James Bean” is the first search term and the subsequent recognition result “BEAN” is the third search term. The That is, out of the destinations registered in the address book 36A, those having the same or similar “reading” as the first search term and including the third search term in its name are extracted. As a result of this search, “James Bean” is displayed as selectable results on the screen 174.

<処理手順>
図24および図25は、この発明の実施の形態4に従う宛先検索の処理手順を示すフローチャートである。なお、図24および図25に示すフローチャートは、システムインターフェイス22に含まれるCPU20がプログラムを実行することで提供される。
<Processing procedure>
24 and 25 are flowcharts showing a destination search processing procedure according to the fourth embodiment of the present invention. Note that the flowcharts shown in FIGS. 24 and 25 are provided when the CPU 20 included in the system interface 22 executes a program.

図24および図25を参照して、まず、CPU20は、ユーザによる送信操作を受付けたか否かを判断する(ステップS400)。ユーザによる送信操作を受付けていない場合(ステップS400においてNOの場合)には、ステップS400の処理が繰返される。   Referring to FIGS. 24 and 25, first, CPU 20 determines whether or not a transmission operation by the user has been accepted (step S400). If the transmission operation by the user is not accepted (NO in step S400), the process of step S400 is repeated.

一方、ユーザによる送信操作を受付けた場合(ステップS400においてYESの場合)には、CPU20は、タッチパネル16に宛先一覧画面(図22および図23の画面162)を表示する(ステップS402)。続いて、CPU20は、音声認識開始キー14(図2)が押下されたか否かを判断する(ステップS404)。音声認識開始キー14が押下されていない場合(ステップS404においてNOの場合)には、ステップS404の処理が繰返される。   On the other hand, when the transmission operation by the user is accepted (YES in step S400), CPU 20 displays a destination list screen (screen 162 in FIGS. 22 and 23) on touch panel 16 (step S402). Subsequently, the CPU 20 determines whether or not the voice recognition start key 14 (FIG. 2) has been pressed (step S404). If the voice recognition start key 14 is not pressed (NO in step S404), the process of step S404 is repeated.

音声認識開始キー14が押下された場合(ステップS404においてYESの場合)には、CPU20は、「Successive」ボタン164aが押下されたか否かを判断する(ステップS406)。「Successive」ボタン164aが押下されていない場合(ステップS406においてNOの場合)には、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS408)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS410)。音声認識処理が成功しなかった場合(ステップS410においてNOの場合)には、ステップS408以下の処理が繰返される。これに対して、音声認識処理が成功した場合(ステップS410においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果に基づいて宛先検索を行なう(ステップS412)。   When the voice recognition start key 14 is pressed (YES in step S404), the CPU 20 determines whether or not the “Successive” button 164a is pressed (step S406). When “Successive” button 164a is not pressed (NO in step S406), CPU 20 waits for a voice input by the user. Then, the CPU 20 executes a voice recognition process in response to the voice input by the user (step S408). After executing the voice recognition process, the CPU 20 determines whether or not the voice recognition process is successful (step S410). If the speech recognition process is not successful (NO in step S410), the processes in and after step S408 are repeated. On the other hand, if the voice recognition process is successful (YES in step S410), CPU 20 performs a destination search based on the recognition result obtained by the voice recognition process (step S412).

その後、CPU20は、タッチパネル16に対して何らかのユーザ操作がなされたか否かを判断する(ステップS414)。タッチパネル16に対して何らかのユーザ操作がなされていない場合(ステップS414においてNOの場合)には、ステップS414の処理が繰返される。   Thereafter, the CPU 20 determines whether any user operation has been performed on the touch panel 16 (step S414). If any user operation is not performed on touch panel 16 (NO in step S414), the process of step S414 is repeated.

一方、タッチパネル16に対して何らかのユーザ操作がなされた場合(ステップS414においてYESの場合)には、CPU20は、ユーザ操作されたボタンの種類を判断する(ステップS416)。いずれかの宛先が選択された場合(ステップS416において「宛先」)には、CPU20は、対応する宛先の登録内容をFAX通信部32もしくはIP通信部34へ渡す(ステップS418)。その後、必要な通信処理が実行される。一方、ユーザ操作されたボタンが「Input」ボタン166aである場合(ステップS416において「Input」)には、CPU20は、タッチパネル16にキーボード入力画面(図22の画面168)を表示する(ステップS420)。続いて、CPU20は、タッチパネル16に対して何らかのユーザ操作がなされたか否かを判断する(ステップS422)。タッチパネル16に対して何らかのユーザ操作がなされていない場合(ステップS422においてNOの場合)には、ステップS422の処理が繰返される。   On the other hand, if any user operation is performed on touch panel 16 (YES in step S414), CPU 20 determines the type of button operated by the user (step S416). If any destination is selected (“destination” in step S416), the CPU 20 passes the registered contents of the corresponding destination to the FAX communication unit 32 or the IP communication unit 34 (step S418). Thereafter, necessary communication processing is executed. On the other hand, when the button operated by the user is the “Input” button 166a (“Input” in step S416), the CPU 20 displays a keyboard input screen (screen 168 in FIG. 22) on the touch panel 16 (step S420). . Subsequently, the CPU 20 determines whether any user operation has been performed on the touch panel 16 (step S422). If any user operation is not performed on touch panel 16 (NO in step S422), the process of step S422 is repeated.

一方、タッチパネル16に対して何らかのユーザ操作がなされた場合(ステップS422においてYESの場合)には、CPU20は、ユーザ操作されたボタンの種類を判断する(ステップS424)。ユーザ操作されたボタンが文字入力ボタンである場合(ステップS424において「文字入力」)には、CPU20は、ユーザ操作されたボタンに応じた文字列を受付ける(ステップS426)。そして、ステップS422以下の処理が繰返される。   On the other hand, if any user operation is performed on touch panel 16 (YES in step S422), CPU 20 determines the type of button operated by the user (step S424). If the button operated by the user is a character input button (“character input” in step S424), the CPU 20 receives a character string corresponding to the button operated by the user (step S426). And the process after step S422 is repeated.

また、ユーザ操作されたボタンが「OK」ボタン168aである場合(ステップS424において「OK」)には、CPU20は、現在受付けている文字列(第2検索ターム)に基づいて、ステップS412において抽出された複数の宛先を絞り込む(ステップS428)。より具体的には、CPU20は、ステップS412において抽出された複数の宛先のうち、その「名前」に第2検索タームを含むものに絞り込む。   If the user-operated button is “OK” button 168a (“OK” in step S424), CPU 20 extracts in step S412 based on the currently accepted character string (second search term). The plurality of destinations are narrowed down (step S428). More specifically, the CPU 20 narrows down the plurality of destinations extracted in step S412 to those whose “name” includes the second search term.

続いて、CPU20は、絞り込んだ宛先が複数存在するか否かを判断する(ステップS430)。検索された宛先が複数存在する場合(ステップS430においてYESの場合)には、ステップS414以下の処理が繰返される。一方、検索された宛先が複数存在しない場合(ステップS430においてNOの場合)には、処理はステップS460へ進む。   Subsequently, the CPU 20 determines whether or not there are a plurality of narrowed destinations (step S430). If there are a plurality of searched destinations (YES in step S430), the processes in and after step S414 are repeated. On the other hand, if there are not a plurality of searched destinations (NO in step S430), the process proceeds to step S460.

一方、「Successive」ボタン164aが押下された場合(ステップS406においてYESの場合)には、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS440)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS442)。音声認識処理が成功しなかった場合(ステップS442においてNOの場合)には、ステップS440以下の処理が繰返される。これに対して、音声認識処理が成功した場合(ステップS442においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果を第1検索タームに設定する(ステップS444)。   On the other hand, when “Successive” button 164a is pressed (YES in step S406), CPU 20 waits for a voice input by the user. Then, the CPU 20 executes a voice recognition process in response to the voice input by the user (step S440). After executing the voice recognition process, the CPU 20 determines whether the voice recognition process is successful (step S442). If the speech recognition process has not succeeded (NO in step S442), the processes in and after step S440 are repeated. On the other hand, when the voice recognition process is successful (YES in step S442), the CPU 20 sets the recognition result obtained by the voice recognition process as the first search term (step S444).

続いて、CPU20は、音声認識開始キー14が再度押下されたか否かを判断する(ステップS446)。音声認識開始キー14が再度押下されていない場合(ステップS446においてNOの場合)には、音声認識開始キー14が再度押下されるまで待つ。   Subsequently, the CPU 20 determines whether or not the voice recognition start key 14 has been pressed again (step S446). If the voice recognition start key 14 has not been pressed again (NO in step S446), the process waits until the voice recognition start key 14 is pressed again.

一方、音声認識開始キー14が再度押下された場合(ステップS446においてYESの場合)には、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS448)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS450)。音声認識処理が成功しなかった場合(ステップS450においてNOの場合)には、ステップS448以下の処理が繰返される。これに対して、音声認識処理が成功した場合(ステップS450においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果を第3検索タームに設定する(ステップS452)。   On the other hand, when the voice recognition start key 14 is pressed again (YES in step S446), the CPU 20 waits for voice input by the user. Then, the CPU 20 executes a voice recognition process in response to the voice input by the user (step S448). After executing the voice recognition process, the CPU 20 determines whether or not the voice recognition process is successful (step S450). If the speech recognition process is not successful (NO in step S450), the processes in and after step S448 are repeated. On the other hand, when the voice recognition process is successful (YES in step S450), the CPU 20 sets the recognition result obtained by the voice recognition process as the third search term (step S452).

さらに、CPU20は、タッチパネル16に、取得した第1検索タームおよび第3検索タームに基づいて、アドレス帳36Aに登録されている宛先検索を行なう(ステップS454)。より具体的には、CPU20は、アドレス帳36Aに登録されている宛先のうち、第1検索タームと同一もしくは類似の“よみ”を有し、かつ第3検索タームをその名前に含むものを抽出する。そして、処理はステップS460へ進む。   Furthermore, CPU 20 performs a destination search registered in address book 36A on touch panel 16 based on the acquired first search term and third search term (step S454). More specifically, the CPU 20 extracts addresses registered in the address book 36A that have the same or similar “reading” as the first search term and include the third search term in its name. To do. Then, the process proceeds to step S460.

ステップS460において、CPU20は、ステップS424もしくはS454において取得された宛先を、タッチパネル16に選択可能に表示する。さらに、CPU20は、表示された宛先が選択されると、対応する宛先の登録内容をFAX通信部32もしくはIP通信部34へ渡す(ステップS462)。その後、必要な通信処理が実行される。   In step S460, the CPU 20 displays the destination acquired in step S424 or S454 on the touch panel 16 so as to be selectable. Further, when the displayed destination is selected, the CPU 20 passes the registered contents of the corresponding destination to the FAX communication unit 32 or the IP communication unit 34 (step S462). Thereafter, necessary communication processing is executed.

<実施の形態4による作用・効果>
この発明の実施の形態4によれば、まず、ユーザが発声する内容が音声認識された結果が第1検索ターム(第1の検索条件)に設定され、それに引き続いてユーザが入力する内容が第2検索ターム(第2の検索条件)に設定される。あるいは、ユーザが発声する内容が音声認識された結果が第1検索ターム(第1の検索条件)に設定され、それに引き続いてユーザがさらに発声する内容が第3検索ターム(第2の検索条件)に設定される。そして、アドレス帳36から、第1の検索条件および第2の検索条件をともに満たす宛先が抽出される。
<Operation / Effect of Embodiment 4>
According to the fourth embodiment of the present invention, first, the result of speech recognition of the content uttered by the user is set as the first search term (first search condition), and the content input by the user subsequently is the first. 2 Search term (second search condition) is set. Alternatively, the result of the speech recognition of the content uttered by the user is set as the first search term (first search condition), and the content further uttered by the user subsequently is the third search term (second search condition). Set to Then, a destination that satisfies both the first search condition and the second search condition is extracted from the address book 36.

そのため、まず、宛先の発音の一部を発声して宛先の候補を特定した上で、それに引き続く入力の内容に基づいて、目的とする宛先に絞り込むことができる。したがって、音声認識の精度が100%ではない場合であっても、目的とする宛先を効率的に検索することができる。   For this reason, first, after uttering a part of the pronunciation of the destination and specifying a candidate for the destination, it is possible to narrow down to the target destination based on the contents of the subsequent input. Therefore, even when the accuracy of voice recognition is not 100%, a target destination can be efficiently searched.

[実施の形態5]
上述の実施の形態4では、ファーストネームとセカンドネーム(ファミリーネーム)といった区別をすることなく一続きの名前を登録する構成について例示した。一方、実施の形態5では、ファミリーネームとセカンドネームとを区別して登録することで、宛先をより効率的に検索する構成について例示する。
[Embodiment 5]
In the above-described fourth embodiment, the configuration in which a series of names are registered without distinguishing between a first name and a second name (family name) has been illustrated. On the other hand, the fifth embodiment exemplifies a configuration for more efficiently searching for a destination by distinguishing and registering a family name and a second name.

本実施の形態に従うMFPの外観図および内部構成については、上述の図1〜図3,図5と同様であるので、詳細な説明は繰返さない。   Since the external view and internal configuration of the MFP according to the present embodiment are the same as those in FIGS. 1 to 3 and 5 described above, detailed description will not be repeated.

<本実施の形態に従う操作画面例>
本実施の形態に従う宛先検索は、ユーザが最初に発声した内容(第1検索ターム)と、ユーザの発声に引き続いてユーザがさらに発声した内容(第2検索ターム)との複合条件、という2つの複合条件に基づいて宛先検索を行なう。なお、「第1検索ターム」が本発明の「第1の検索条件」に相当し、「第2検索ターム」が本発明の「第2の検索条件」に相当する。
<Example of operation screen according to this embodiment>
The destination search according to the present embodiment includes two conditions, that is, a composite condition of content first uttered by the user (first search term) and content further uttered by the user following the user's utterance (second search term). A destination search is performed based on the compound condition. The “first search term” corresponds to the “first search condition” of the present invention, and the “second search term” corresponds to the “second search condition” of the present invention.

後述するように、ファーストネームとセカンドネームとを区別して宛先として登録する場合には、「第1検索ターム」に基づいてファーストネームについて検索し、「第2検索ターム」に基づいてセカンドネームについて検索することで、検索効率をより高めることができる。   As will be described later, when the first name and the second name are distinguished and registered as a destination, the first name is searched based on the “first search term”, and the second name is searched based on the “second search term”. By doing so, the search efficiency can be further increased.

本実施の形態に従う宛先検索の効果についての理解を容易化するために、以下の説明では、図26に示すような登録内容を有するアドレス帳36Bが用いられるものとする。図26を参照して、アドレス帳36Bには、「種別」「1stname」「2ndname」「登録内容」の4つの項目が規定された複数のエントリが登録されている。図4に示すアドレス帳36と同様に、「種別」の項目には、登録された宛先の種類を特定するための情報が格納される。「1stname」および「2ndname」の項目には、それぞれ登録された宛先を特定するための情報が格納される。「登録内容」の項目には、ファクシミリ番号、電子メールアドレス、ファイルサーバのアドレス(URL:Uniform Resource Locator)などが格納される。   In order to facilitate understanding of the effect of destination search according to the present embodiment, address book 36B having registration contents as shown in FIG. 26 is used in the following description. Referring to FIG. 26, a plurality of entries in which four items of “type”, “1stname”, “2ndname”, and “registration contents” are defined are registered in address book 36B. Similar to the address book 36 shown in FIG. 4, information for specifying the registered destination type is stored in the “type” item. Information for specifying each registered destination is stored in the items “1stname” and “2ndname”. In the item “Registration contents”, a facsimile number, an e-mail address, a file server address (URL: Uniform Resource Locator), and the like are stored.

以下、図27を参照して、本実施の形態に従う宛先検索の操作の一例を説明する。図27は、この発明の実施の形態5に従う宛先検索の操作画面例を説明する図である。   Hereinafter, an example of the destination search operation according to the present embodiment will be described with reference to FIG. FIG. 27 is a diagram illustrating an example of a destination search operation screen according to the fifth embodiment of the present invention.

図27を参照して、ユーザがファクシミリなどを送信するための操作をすると、まず、操作パネル8には画面182が表示される。画面182には、アドレス帳36Bに登録されている各宛先が選択可能な状態で一覧表示される。この画面182は、典型的には、スキャナ2で原稿から画像情報を読取る前に表示され、検索待ち状態に相当する。   Referring to FIG. 27, when the user performs an operation for transmitting a facsimile or the like, first, screen 182 is displayed on operation panel 8. The screen 182 displays a list of destinations registered in the address book 36B in a selectable state. This screen 182 is typically displayed before the scanner 2 reads image information from the document, and corresponds to a search waiting state.

画面182が表示されている状態で、ユーザが音声認識開始キー14(図2)を押下すると、ユーザからの音声入力が受付可能状態になる。このとき、操作パネル8の表示は、画面184のように変化する。この画面184が表示されている状態では、ユーザからの音声入力があれば、それに応答して音声認識を実行できる状態となっている。   When the user presses the voice recognition start key 14 (FIG. 2) while the screen 182 is displayed, the voice input from the user can be accepted. At this time, the display on the operation panel 8 changes like a screen 184. When the screen 184 is displayed, if there is a voice input from the user, the voice recognition can be executed in response thereto.

画面184が表示されている状態で、ユーザが「James」と発声したとする。すると、このユーザが発声した音声が認識される。この認識結果が第1検索タームに設定され、第1検索タームに基づいて宛先検索が行なわれる。この第1検索タームは、アドレス帳36Bの「1stname」に登録された内容との間で比較が行なわれる。図26に示すように、アドレス帳36Bには、その「1stname」に登録された内容がユーザの発した音声を含む宛先として、「James Brown」「James Smith」「James Been」「James Bean」という4つが登録されており、この4つの宛先が検索結果として、画面186に表示される。   Assume that the user utters “James” while the screen 184 is displayed. Then, the voice uttered by the user is recognized. This recognition result is set as the first search term, and a destination search is performed based on the first search term. This first search term is compared with the contents registered in “1stname” of the address book 36B. As shown in FIG. 26, in the address book 36 </ b> B, the contents registered in “1stname” include “James Brown”, “James Smith”, “James Bean”, and “James Bean” as destinations including voices uttered by the user. Four are registered, and these four destinations are displayed on the screen 186 as search results.

画面186が表示されている状態で、ユーザは、さらに「Brown」と発声したとする。なお、最初の発声と引き続く発声との間を明確に区別するために、音声認識開始キー14の押下をユーザに要求してもよい。すると、このユーザが引き続いて発した音声が認識される。この認識結果が第2検索タームに設定され、第2検索タームに基づいて絞り込みが実行される。すなわち、画面186に表示されていた複数の宛先のうち、その「2ndname」に登録された内容が第2検索タームを含むものだけに絞り込まれる。この結果、画面188に示すように、「James」と発声した場合に検索された4つの宛先のうち、「Brown」を含む宛先である「James Brown」のみが抽出されていることがわかる。   It is assumed that the user further utters “Brown” while the screen 186 is displayed. Note that the user may be requested to press the voice recognition start key 14 in order to clearly distinguish between the first utterance and the subsequent utterance. Then, the voice subsequently uttered by this user is recognized. This recognition result is set as the second search term, and narrowing down is executed based on the second search term. That is, among the plurality of destinations displayed on the screen 186, the contents registered in “2ndname” are narrowed down to those including the second search term. As a result, as shown in the screen 188, it can be seen that only “James Brown” that is a destination including “Brown” is extracted from the four destinations searched when “James” is uttered.

<処理手順>
図28は、この発明の実施の形態5に従う宛先検索の処理手順を示すフローチャートである。なお、図28に示すフローチャートは、システムインターフェイス22に含まれるCPU20がプログラムを実行することで提供される。
<Processing procedure>
FIG. 28 is a flowchart showing a destination search processing procedure according to the fifth embodiment of the present invention. The flowchart shown in FIG. 28 is provided when the CPU 20 included in the system interface 22 executes a program.

図28を参照して、まず、CPU20は、ユーザによる送信操作を受付けたか否かを判断する(ステップS500)。ユーザによる送信操作を受付けていない場合(ステップS500においてNOの場合)には、ステップS500の処理が繰返される。   Referring to FIG. 28, first, CPU 20 determines whether or not a transmission operation by the user has been accepted (step S500). If the transmission operation by the user is not accepted (NO in step S500), the process of step S500 is repeated.

一方、ユーザによる送信操作を受付けた場合(ステップS500においてYESの場合)には、CPU20は、タッチパネル16に宛先一覧画面(図27の画面182)を表示する(ステップS502)。続いて、CPU20は、音声認識開始キー14(図2)が押下されたか否かを判断する(ステップS504)。音声認識開始キー14が押下されていない場合(ステップS504においてNOの場合)には、ステップS504の処理が繰返される。   On the other hand, when the transmission operation by the user is accepted (YES in step S500), CPU 20 displays a destination list screen (screen 182 in FIG. 27) on touch panel 16 (step S502). Subsequently, the CPU 20 determines whether or not the voice recognition start key 14 (FIG. 2) has been pressed (step S504). If the voice recognition start key 14 has not been pressed (NO in step S504), the process of step S504 is repeated.

音声認識開始キー14が押下された場合(ステップS504においてYESの場合)には、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS506)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS508)。音声認識処理が成功しなかった場合(ステップS508においてNOの場合)には、ステップS506以下の処理が繰返される。   When the voice recognition start key 14 is pressed (YES in step S504), the CPU 20 waits for voice input by the user. Then, the CPU 20 executes voice recognition processing in response to voice input by the user (step S506). After executing the voice recognition process, the CPU 20 determines whether or not the voice recognition process is successful (step S508). If the speech recognition process is not successful (NO in step S508), the processes in and after step S506 are repeated.

これに対して、音声認識処理が成功した場合(ステップS508においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果を第1検索タームに設定し(ステップS510)、この第1検索タームに基づいて宛先検索を行なう(ステップS512)。具体的には、CPU20は、アドレス帳36Bに登録されているエントリのうち、その「1stname」に第1検索タームを含むものを抽出する。   On the other hand, when the voice recognition process is successful (YES in step S508), the CPU 20 sets the recognition result obtained by the voice recognition process as the first search term (step S510). A destination search is performed based on one search term (step S512). Specifically, the CPU 20 extracts an entry registered in the address book 36B that includes the first search term in its “1stname”.

続いて、CPU20は、音声認識開始キー14が再度押下されたか否かを判断する(ステップS514)。音声認識開始キー14が再度押下されていない場合(ステップS514においてNOの場合)には、音声認識開始キー14が再度押下されるまで待つ(ステップS514)。   Subsequently, the CPU 20 determines whether or not the voice recognition start key 14 has been pressed again (step S514). If the voice recognition start key 14 has not been pressed again (NO in step S514), the process waits until the voice recognition start key 14 is pressed again (step S514).

一方、音声認識開始キー14が再度押下された場合(ステップS514においてYESの場合)には、CPU20は、ユーザによる音声入力を待つ。そして、CPU20は、ユーザによる音声入力に応答して、音声認識処理を実行する(ステップS516)。この音声認識処理の実行後、CPU20は、音声認識処理が成功したか否かを判断する(ステップS518)。音声認識処理が成功しなかった場合(ステップS518においてNOの場合)には、ステップS516以下の処理が繰返される。   On the other hand, when the voice recognition start key 14 is pressed again (YES in step S514), the CPU 20 waits for voice input by the user. Then, the CPU 20 executes a voice recognition process in response to the voice input by the user (step S516). After executing the voice recognition process, the CPU 20 determines whether or not the voice recognition process is successful (step S518). If the speech recognition process has not succeeded (NO in step S518), the processes in and after step S516 are repeated.

これに対して、音声認識処理が成功した場合(ステップS518においてYESの場合)には、CPU20は、音声認識処理によって得られた認識結果を第2検索タームに設定し(ステップS520)、この第2検索タームに基づいて、ステップS510において抽出された複数の宛先を絞り込む(ステップS522)。より具体的には、CPU20は、ステップS510において抽出された複数の宛先のうち、その「2ndname」に第2検索タームを含むものに絞り込む。   On the other hand, when the voice recognition process is successful (YES in step S518), the CPU 20 sets the recognition result obtained by the voice recognition process as the second search term (step S520). Based on the two search terms, a plurality of destinations extracted in step S510 are narrowed down (step S522). More specifically, the CPU 20 narrows down the plurality of destinations extracted in step S510 to those that include the second search term in “2ndname”.

続いて、CPU20は、ステップS522において絞り込まれた宛先を、タッチパネル16に選択可能に表示する(ステップS524)。さらに、CPU20は、表示された宛先が選択されると、対応する宛先の登録内容をFAX通信部32もしくはIP通信部34へ渡す(ステップS526)。その後、必要な通信処理が実行される。   Subsequently, the CPU 20 displays the destinations narrowed down in step S522 so as to be selectable on the touch panel 16 (step S524). Further, when the displayed destination is selected, the CPU 20 passes the registered contents of the corresponding destination to the FAX communication unit 32 or the IP communication unit 34 (step S526). Thereafter, necessary communication processing is executed.

<実施の形態5による作用・効果>
この発明の実施の形態5によれば、まず、ユーザが発声する内容が音声認識された結果が第1検索タームに設定され、それに引き続いてユーザがさらに発声する内容が音声認識された結果が第2検索タームに設定される。そして、アドレス帳36Bに登録される「1stname」に第1検索タームが含まれているか否かが検索されるとともに、「2ndname」に第2検索タームが含まれているか否かが検索される。
<Operation / Effect of Embodiment 5>
According to the fifth embodiment of the present invention, first, the result of speech recognition of the content uttered by the user is set as the first search term, and subsequently the result of speech recognition of the content further uttered by the user is the first. Set to 2 search terms. Then, “1stname” registered in the address book 36B is searched for whether or not the first search term is included, and “2ndname” is searched for whether or not the second search term is included.

そのため、第1検索タームおよび第2検索タームを含む複合条件に基づく宛先検索を行なう場合であっても、検索対象を限定することができるので、より検索処理を高速化できる。   Therefore, even when a destination search based on a composite condition including the first search term and the second search term is performed, the search target can be limited, and the search process can be further speeded up.

[その他の実施の形態]
上述の実施の形態では、本発明に係る通信装置の典型例としてMFP1について例示したが、本発明に係る情報装置を通信アプリケーションなどが実行されるパーソナルコンピュータを用いて実現してもよい。この場合には、パーソナルコンピュータに本発明に係る検索処理プログラムをインストールすることで、当該パーソナルコンピュータを本発明に係る通信装置として機能させ、あるいは当該パーソナルコンピュータで本発明に係る検索処理方法を実行することができる。
[Other embodiments]
In the above embodiment, the MFP 1 is illustrated as a typical example of the communication apparatus according to the present invention. However, the information apparatus according to the present invention may be realized using a personal computer that executes a communication application or the like. In this case, the search processing program according to the present invention is installed in the personal computer so that the personal computer functions as the communication device according to the present invention, or the search processing method according to the present invention is executed on the personal computer. be able to.

また、本発明に係る検索処理プログラムは、オペレーティングシステムの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列およびタイミングで呼出して処理を実行させるものであってもよい。その場合には、プログラム自体には上記モジュールが含まれずオペレーティングシステムと協働して処理が実行される。このようなモジュールを含まないプログラムも、本発明に係るプログラムに含まれ得る。   In addition, the search processing program according to the present invention may execute a process by calling necessary modules out of program modules provided as a part of the operating system at a predetermined arrangement and timing. In that case, the program itself does not include the module, and the process is executed in cooperation with the operating system. A program that does not include such a module can also be included in the program according to the present invention.

また、本発明に係る検索処理プログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本発明にかかるプログラムに含まれ得る。   The search processing program according to the present invention may be provided by being incorporated in a part of another program. Even in this case, the program itself does not include the module included in the other program, and the process is executed in cooperation with the other program. Such a program incorporated in another program can also be included in the program according to the present invention.

提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記憶された記憶媒体とを含む。   The provided program product is installed in a program storage unit such as a hard disk and executed. Note that the program product includes the program itself and a storage medium in which the program is stored.

さらに、本発明に係る検索処理プログラムによって実現される機能の一部または全部を専用のハードウェアによって構成してもよい。   Furthermore, part or all of the functions realized by the search processing program according to the present invention may be configured by dedicated hardware.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

この発明の実施の形態1に従うMFPの外観図である。1 is an external view of an MFP according to a first embodiment of the present invention. 図1に示すMFP1の操作パネルの外観図である。FIG. 2 is an external view of an operation panel of MFP 1 shown in FIG. 1. この発明の実施の形態1に従うMFPの内部構成を示す概略図である。1 is a schematic diagram showing an internal configuration of an MFP according to a first embodiment of the present invention. この発明の実施の形態1に従うアドレス帳の登録内容の一例を示す図である。It is a figure which shows an example of the registration content of the address book according to Embodiment 1 of this invention. この発明の実施の形態に従うCPUで実行されるアプリケーションを模式的に示した図である。It is the figure which showed typically the application performed with CPU according to embodiment of this invention. この発明の実施の形態1に従う宛先検索の操作画面例(その1)を説明する図である。It is a figure explaining the operation screen example (the 1) of the destination search according to Embodiment 1 of this invention. この発明の実施の形態1に従う宛先検索の操作画面例(その2)を説明する図である。It is a figure explaining the operation screen example (the 2) of the destination search according to Embodiment 1 of this invention. この発明の実施の形態1に従う漢字−よみ対応リストの登録内容の一例を示す図である。It is a figure which shows an example of the registration content of the kanji-reading corresponding list according to Embodiment 1 of this invention. この発明の実施の形態1に従う宛先検索の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the destination search according to Embodiment 1 of this invention. この発明の実施の形態1に従う宛先検索の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the destination search according to Embodiment 1 of this invention. この発明の実施の形態1に従う音声認識処理のより詳細な処理手順を示すフローチャートである。It is a flowchart which shows the more detailed process sequence of the speech recognition process according to Embodiment 1 of this invention. この発明の実施の形態2に従う宛先検索の操作画面例(その1)を説明する図である。It is a figure explaining the operation screen example (the 1) of the destination search according to Embodiment 2 of this invention. この発明の実施の形態2に従う宛先検索の操作画面例(その2)を説明する図である。It is a figure explaining the operation screen example (the 2) of the destination search according to Embodiment 2 of this invention. この発明の実施の形態2に従う宛先検索の操作画面例(その3)を説明する図である。It is a figure explaining the operation screen example (the 3) of the destination search according to Embodiment 2 of this invention. この発明の実施の形態2に従う宛先検索の処理手順を示すフローチャートである。It is a flowchart which shows the destination search processing procedure according to Embodiment 2 of this invention. この発明の実施の形態2に従う宛先検索の処理手順を示すフローチャートである。It is a flowchart which shows the destination search processing procedure according to Embodiment 2 of this invention. この発明の実施の形態3に従う宛先検索の操作画面例(その1)を説明する図である。It is a figure explaining the operation screen example (the 1) of the destination search according to Embodiment 3 of this invention. この発明の実施の形態3に従う宛先検索の概念を説明する図である。It is a figure explaining the concept of the destination search according to Embodiment 3 of this invention. この発明の実施の形態3に従う宛先検索の操作画面例(その2)を説明する図である。It is a figure explaining the operation screen example (the 2) of the destination search according to Embodiment 3 of this invention. この発明の実施の形態3に従う宛先検索の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the destination search according to Embodiment 3 of this invention. この発明の実施の形態4に従うアドレス帳の登録内容の一例を示す図である。It is a figure which shows an example of the registration content of the address book according to Embodiment 4 of this invention. この発明の実施の形態4に従う宛先検索の操作画面例(その1)を説明する図である。It is a figure explaining the operation screen example (the 1) of the destination search according to Embodiment 4 of this invention. この発明の実施の形態4に従う宛先検索の操作画面例(その2)を説明する図である。It is a figure explaining the operation screen example (the 2) of the destination search according to Embodiment 4 of this invention. この発明の実施の形態4に従う宛先検索の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the destination search according to Embodiment 4 of this invention. この発明の実施の形態4に従う宛先検索の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the destination search according to Embodiment 4 of this invention. この発明の実施の形態5に従うアドレス帳の登録内容の一例を示す図である。It is a figure which shows an example of the registration content of the address book according to Embodiment 5 of this invention. この発明の実施の形態5に従う宛先検索の操作画面例を説明する図である。It is a figure explaining the example of an operation screen of the destination search according to Embodiment 5 of this invention. この発明の実施の形態5に従う宛先検索の処理手順を示すフローチャートである。It is a flowchart which shows the destination search processing procedure according to Embodiment 5 of this invention.

符号の説明Explanation of symbols

2 スキャナ、3 自動原稿搬送部、4 プリントエンジン、5 給紙部、6 制御部、8 操作パネル、10 マイク、12 キー入力部、14 音声認識開始キー、16 タッチパネル、22 システムインターフェイス、24 入力画像処理部、26 メモリ、28 出力画像処理部、30 データ格納部、32 FAX通信部、34 IP通信部、36,36A,36B アドレス帳、38 漢字−よみ対応リスト、42 音声入力ドライバ、44 キー入力ドライバ、46 タッチパネルドライバ、48 音声認識アプリケーション、50 音声認識ライブラリ、52 アプリケーション、54 検索アプリケーション。   2 scanner, 3 automatic document feeder, 4 print engine, 5 paper feeder, 6 control unit, 8 operation panel, 10 microphone, 12 key input unit, 14 voice recognition start key, 16 touch panel, 22 system interface, 24 input image Processing unit, 26 memory, 28 output image processing unit, 30 data storage unit, 32 FAX communication unit, 34 IP communication unit, 36, 36A, 36B address book, 38 kanji-reading correspondence list, 42 voice input driver, 44 key input Driver, 46 Touch panel driver, 48 Voice recognition application, 50 Voice recognition library, 52 application, 54 Search application.

Claims (10)

複数の宛先を格納する記憶部と、
ユーザ指示に従って前記記憶部から宛先を検索する制御部と、
前記検索された宛先に従ってデータを送信する通信部と、
音声入力を受付ける音声入力部と、
前記音声入力を認識する音声認識部とを備え、
前記制御部は、
検索待ち状態において前記音声入力部で受付けられる第1音声入力の認識結果を第1の検索条件に設定し、
前記第1音声入力に引き続いて入力される内容を第2の検索条件に設定し、
前記記憶部に格納された前記複数の宛先のうち、前記第1および第2の検索条件を共に満たす宛先を抽出する、通信装置。
A storage unit for storing a plurality of destinations;
A control unit for retrieving a destination from the storage unit according to a user instruction;
A communication unit for transmitting data according to the searched destination;
A voice input unit for receiving voice input;
A voice recognition unit for recognizing the voice input;
The controller is
The recognition result of the first voice input received by the voice input unit in the search waiting state is set as the first search condition,
The content input subsequent to the first voice input is set as a second search condition,
A communication apparatus that extracts a destination that satisfies both the first and second search conditions from the plurality of destinations stored in the storage unit.
前記制御部は、前記第1音声入力に引き続いて前記音声入力部で受付けられる第2音声入力の認識結果を、前記第2の検索条件に設定する、請求項1に記載の通信装置。   The communication device according to claim 1, wherein the control unit sets a recognition result of a second voice input received by the voice input unit subsequent to the first voice input as the second search condition. ユーザによる文字入力を受付ける文字入力部をさらに備え、
前記制御部は、前記第1音声入力に引き続いて前記文字入力部で受付けられる文字入力を、前記第2の検索条件に設定する、請求項1に記載の通信装置。
A character input unit that accepts a character input by the user;
The communication device according to claim 1, wherein the control unit sets a character input accepted by the character input unit subsequent to the first voice input as the second search condition.
ユーザによる文字入力を受付ける文字入力部をさらに備え、
前記制御部は、ユーザ操作に応じて、前記第1音声入力に引き続いて前記音声入力部で受付けられる第2音声入力の認識結果、および、前記第1音声入力に引き続いて前記文字入力部で受付けられる文字入力、の一方を、前記第2の検索条件に設定する、請求項1に記載の通信装置。
A character input unit that accepts a character input by the user;
The control unit receives a second voice input recognition result received by the voice input unit following the first voice input in response to a user operation, and received by the character input unit following the first voice input. The communication apparatus according to claim 1, wherein one of the input characters is set as the second search condition.
表示部をさらに備え、
前記制御部は、
前記記憶部に格納された前記複数の宛先から前記第1の検索条件を満たす宛先を抽出し、その抽出結果を前記表示部に表示した後、
前記抽出結果を前記第2の検索条件に基づいて絞り込み、前記表示部の表示内容をその絞り込み結果に更新する、請求項1〜4のいずれか1項に記載の通信装置。
A display unit;
The controller is
After extracting the destination satisfying the first search condition from the plurality of destinations stored in the storage unit, and displaying the extraction result on the display unit,
The communication apparatus according to claim 1, wherein the extraction result is narrowed down based on the second search condition, and the display content of the display unit is updated to the narrowing result.
前記複数の宛先の各々は、漢字を含む名前と、当該名前のよみとを含んでおり、
前記制御部は、
漢字と当該漢字のよみとを対応付けたファイルを参照して、前記第2の検索条件に対応するよみを有する漢字を特定し、
前記特定した漢字をその名前に含む宛先を前記第2の検索条件を満たす宛先として抽出する、請求項1〜5のいずれか1項に記載の通信装置。
Each of the plurality of destinations includes a name including kanji and a reading of the name,
The controller is
Referring to a file that associates the kanji and the kanji of the kanji, identifying kanji having a kanji corresponding to the second search condition;
The communication apparatus according to claim 1, wherein a destination including the specified kanji in its name is extracted as a destination that satisfies the second search condition.
前記複数の宛先の各々は、第1部分および第2部分に区分された名前を含んでおり、
前記制御部は、前記複数の宛先の各々について、その前記第1部分に対して前記第1の検索条件を満たすか否かを判断するとともに、その前記第2部分に対して前記第2の検索条件を満たすか否かを判断する、請求項1〜5のいずれか1項に記載の通信装置。
Each of the plurality of destinations includes a name partitioned into a first part and a second part;
The control unit determines, for each of the plurality of destinations, whether or not the first search condition is satisfied with respect to the first part, and the second search with respect to the second part. The communication apparatus according to claim 1, wherein it is determined whether or not a condition is satisfied.
前記制御部は、前記第1音声入力の認識結果と類似した宛先についても、前記第1の検索条件を満たすと判断する、請求項1〜7のいずれか1項に記載の通信装置。   The communication device according to claim 1, wherein the control unit determines that the first search condition is satisfied even for a destination similar to the recognition result of the first voice input. 予め登録された複数の宛先からユーザ要求に応じた宛先を検索する検索処理方法であって、
ユーザ操作に応じて検索待ち状態になるステップと、
前記検索待ち状態において、ユーザからの第1音声入力を受付けるステップと、
前記第1音声入力に対して音声認識を実行するステップと、
前記第1音声入力の認識結果を第1の検索条件に設定するステップと、
前記第1音声入力に引き続いて入力される内容を受付けて第2の検索条件に設定するステップと、
前記複数の宛先のうち、前記第1および第2の検索条件を共に満たす宛先を抽出するステップとを備える、検索処理方法。
A search processing method for searching for a destination according to a user request from a plurality of destinations registered in advance,
A step of waiting for a search according to a user operation;
Receiving the first voice input from the user in the search waiting state;
Performing speech recognition on the first speech input;
Setting the recognition result of the first voice input as a first search condition;
Receiving the content input subsequent to the first voice input and setting it as a second search condition;
A search processing method comprising: extracting a destination satisfying both the first and second search conditions from the plurality of destinations.
予め登録された複数の宛先からユーザ要求に応じた宛先を検索させる検索処理プログラムであって、前記検索処理プログラムは、コンピュータに、
ユーザ操作に応じて検索待ち状態になるステップと、
前記検索待ち状態において、ユーザからの第1音声入力を受付けるステップと、
前記第1音声入力に対して音声認識を実行するステップと、
前記第1音声入力の認識結果を第1の検索条件に設定するステップと、
前記第1音声入力に引き続いて入力される内容を受付けて第2の検索条件に設定するステップと、
前記複数の宛先のうち、前記第1および第2の検索条件を共に満たす宛先を抽出するステップとを実行させる、検索処理プログラム。
A search processing program for searching for a destination according to a user request from a plurality of destinations registered in advance, the search processing program,
A step of waiting for a search according to a user operation;
Receiving the first voice input from the user in the search waiting state;
Performing speech recognition on the first speech input;
Setting the recognition result of the first voice input as a first search condition;
Receiving the content input subsequent to the first voice input and setting it as a second search condition;
A search processing program for executing a step of extracting a destination satisfying both the first and second search conditions from the plurality of destinations.
JP2008320481A 2008-12-17 2008-12-17 Communication device, search processing method and search processing program Pending JP2010147624A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008320481A JP2010147624A (en) 2008-12-17 2008-12-17 Communication device, search processing method and search processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008320481A JP2010147624A (en) 2008-12-17 2008-12-17 Communication device, search processing method and search processing program

Publications (1)

Publication Number Publication Date
JP2010147624A true JP2010147624A (en) 2010-07-01

Family

ID=42567622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008320481A Pending JP2010147624A (en) 2008-12-17 2008-12-17 Communication device, search processing method and search processing program

Country Status (1)

Country Link
JP (1) JP2010147624A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137636A (en) * 2013-01-15 2014-07-28 Ntt Docomo Inc Information retrieval apparatus and information retrieval method
JP2018022218A (en) * 2016-08-01 2018-02-08 富士ゼロックス株式会社 Information processing apparatus and information processing program
JP2021044615A (en) * 2019-09-06 2021-03-18 コニカミノルタ株式会社 Image forming apparatus, destination setting support method, and destination setting support program
JP2021048516A (en) * 2019-09-19 2021-03-25 コニカミノルタ株式会社 Information transmission device, information transmission method, and program
JP2021051417A (en) * 2019-09-24 2021-04-01 コニカミノルタ株式会社 Address search system, address search method, and program
JP2021091182A (en) * 2019-12-12 2021-06-17 コニカミノルタ株式会社 Image processing device and control method
US11769494B2 (en) 2020-05-14 2023-09-26 Konica Minolta, Inc. Information processing apparatus and destination search method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667688A (en) * 1992-08-21 1994-03-11 Toshiba Corp Input device
JP2003228394A (en) * 2002-01-31 2003-08-15 Nippon Telegr & Teleph Corp <Ntt> Noun specifying device using voice input and method thereof
JP2004295578A (en) * 2003-03-27 2004-10-21 Matsushita Electric Ind Co Ltd Translation device
WO2006137246A1 (en) * 2005-06-21 2006-12-28 Pioneer Corporation Speech recognizing device, speech recognizing method, speech recognizing program, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667688A (en) * 1992-08-21 1994-03-11 Toshiba Corp Input device
JP2003228394A (en) * 2002-01-31 2003-08-15 Nippon Telegr & Teleph Corp <Ntt> Noun specifying device using voice input and method thereof
JP2004295578A (en) * 2003-03-27 2004-10-21 Matsushita Electric Ind Co Ltd Translation device
WO2006137246A1 (en) * 2005-06-21 2006-12-28 Pioneer Corporation Speech recognizing device, speech recognizing method, speech recognizing program, and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137636A (en) * 2013-01-15 2014-07-28 Ntt Docomo Inc Information retrieval apparatus and information retrieval method
JP2018022218A (en) * 2016-08-01 2018-02-08 富士ゼロックス株式会社 Information processing apparatus and information processing program
JP2021044615A (en) * 2019-09-06 2021-03-18 コニカミノルタ株式会社 Image forming apparatus, destination setting support method, and destination setting support program
JP2021048516A (en) * 2019-09-19 2021-03-25 コニカミノルタ株式会社 Information transmission device, information transmission method, and program
JP7388079B2 (en) 2019-09-19 2023-11-29 コニカミノルタ株式会社 Information transmitting device, information transmitting method and program
JP2021051417A (en) * 2019-09-24 2021-04-01 コニカミノルタ株式会社 Address search system, address search method, and program
JP7375409B2 (en) 2019-09-24 2023-11-08 コニカミノルタ株式会社 Address search system and program
JP2021091182A (en) * 2019-12-12 2021-06-17 コニカミノルタ株式会社 Image processing device and control method
US11769494B2 (en) 2020-05-14 2023-09-26 Konica Minolta, Inc. Information processing apparatus and destination search method

Similar Documents

Publication Publication Date Title
JP4878471B2 (en) Information processing apparatus and control method thereof
US7797150B2 (en) Translation system using a translation database, translation using a translation database, method using a translation database, and program for translation using a translation database
JP2010147624A (en) Communication device, search processing method and search processing program
US11355106B2 (en) Information processing apparatus, method of processing information and storage medium comprising dot per inch resolution for scan or copy
JP7367750B2 (en) Image processing device, image processing device control method, and program
US8755066B2 (en) Image processing apparatus, image processing method, recording medium recorded with image processing program, and image processing system
US20060285748A1 (en) Document processing device
JP2018046416A (en) Information processing device and program
JP2006330576A (en) Apparatus operation system, speech recognition device, electronic apparatus, information processor, program, and recording medium
JP5343652B2 (en) Operation screen control apparatus, image forming apparatus, and computer program
US11792338B2 (en) Image processing system for controlling an image forming apparatus with a microphone
US11301675B2 (en) Image processing apparatus, image processing method, and storage medium
US10638001B2 (en) Information processing apparatus for performing optical character recognition (OCR) processing on image data and converting image data to document data
US20200312326A1 (en) Image forming apparatus and job execution method
JP4754236B2 (en) Information processing apparatus, acquisition method, and acquisition program
JP7218192B2 (en) image forming device
JP7334420B2 (en) Information processing device and program
JP7115162B2 (en) ELECTRONIC DEVICE, IMAGE FORMING APPARATUS, E-MAIL CREATION SUPPORT METHOD AND E-MAIL CREATION SUPPORT PROGRAM
JP7286321B2 (en) Information processing system, information processing device, control method, program
JP4520262B2 (en) Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system
JP2008299778A (en) Image reading apparatus, and image reading and processing program
JP2004077601A (en) Operating apparatus with speech input function
US11700338B2 (en) Information processing system that receives audio operations on multifunction peripheral, as well as image processing apparatus and control method therefor
JP2019197321A (en) Image processing apparatus and image forming apparatus
JP2000315097A (en) Electronic equipment, its controlling method and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111206