JP6572815B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6572815B2
JP6572815B2 JP2016073042A JP2016073042A JP6572815B2 JP 6572815 B2 JP6572815 B2 JP 6572815B2 JP 2016073042 A JP2016073042 A JP 2016073042A JP 2016073042 A JP2016073042 A JP 2016073042A JP 6572815 B2 JP6572815 B2 JP 6572815B2
Authority
JP
Japan
Prior art keywords
information
recipe
unit
user
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016073042A
Other languages
Japanese (ja)
Other versions
JP2017182704A (en
Inventor
友佑 岡▲崎▼
友佑 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016073042A priority Critical patent/JP6572815B2/en
Publication of JP2017182704A publication Critical patent/JP2017182704A/en
Application granted granted Critical
Publication of JP6572815B2 publication Critical patent/JP6572815B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Facsimiles In General (AREA)

Description

本発明は、画像処理装置、及び画像処理装置で実行される画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method executed by the image processing apparatus.

コピー機のような画像処理装置では、原稿から読み取られた画像データに基づいて前記原稿の画像が印刷される。例えば、原稿の画像データに基づく印刷物に広告画像を付加することが可能な画像処理装置が知られている(例えば、特許文献1参照)。   In an image processing apparatus such as a copying machine, an image of the original is printed based on image data read from the original. For example, an image processing apparatus capable of adding an advertisement image to a printed matter based on image data of a document is known (see, for example, Patent Document 1).

特開2001−13817号公報JP 2001-13817 A

ところで、画像処理装置のユーザーは、食費を抑えるために、スーパーのような食料品販売店のチラシに掲載された食材を用いて調理を行うことがある。この場合、ユーザーにおいて、チラシに掲載された食材を用いた料理のレシピを探す手間が生じる。   By the way, in order to reduce food expenses, a user of an image processing apparatus sometimes performs cooking using foods posted on a leaflet of a grocery store such as a supermarket. In this case, the user has to search for a recipe for cooking using the ingredients listed on the flyer.

本発明の目的は、料理のレシピを探すユーザーの手間を軽減可能な画像処理装置、及び画像処理方法を提供することにある。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of reducing the effort of a user who searches for a recipe for cooking.

本発明の一の局面に係る画像処理装置は、食材抽出部と、レシピ取得部と、出力処理部とを備える。前記食材抽出部は、食材に関する情報が掲載されるチラシの画像データに基づいて、前記チラシに掲載された特定食材に関する食材情報を抽出する。前記レシピ取得部は、前記食材抽出部によって抽出された前記食材情報に基づいて、前記特定食材を用いた特定料理のレシピに関するレシピ情報を取得する。前記出力処理部は、前記レシピ取得部によって取得された前記レシピ情報を出力する。   An image processing apparatus according to one aspect of the present invention includes a food material extraction unit, a recipe acquisition unit, and an output processing unit. The said foodstuff extraction part extracts the foodstuff information regarding the specific food material posted on the said flyer based on the image data of the leaflet where the information regarding foodstuff is published. The said recipe acquisition part acquires the recipe information regarding the recipe of the specific dish using the said specific foodstuff based on the said foodstuff information extracted by the said foodstuff extraction part. The output processing unit outputs the recipe information acquired by the recipe acquisition unit.

本発明の他の局面に係る画像処理方法は、第1ステップと、第2ステップと、第3ステップとを含む。前記第1ステップでは、食材に関する情報が掲載されるチラシの画像データに基づいて、前記チラシに掲載された特定食材に関する食材情報が抽出される。前記第2ステップでは、前記第1ステップによって抽出された前記食材情報に基づいて、前記特定食材を用いた特定料理のレシピに関するレシピ情報が取得される。前記第3ステップでは、前記第2ステップによって取得された前記レシピ情報が出力される。   An image processing method according to another aspect of the present invention includes a first step, a second step, and a third step. In the first step, based on image data of a flyer on which information on food is posted, food information on the specific food posted on the flyer is extracted. In the second step, recipe information relating to a recipe for a specific dish using the specific food is acquired based on the food information extracted in the first step. In the third step, the recipe information acquired in the second step is output.

本発明によれば、料理のレシピを探すユーザーの手間を軽減可能な画像処理装置、及び画像処理方法が実現される。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus and image processing method which can reduce the effort of the user who looks for a cooking recipe are implement | achieved.

図1は、本発明の実施形態に係る画像処理システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an image processing system according to an embodiment of the present invention. 図2は、本発明の実施形態に係る画像処理システムに含まれる画像処理装置の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of an image processing apparatus included in the image processing system according to the embodiment of the present invention. 図3は、本発明の実施形態に係る画像処理システムで実行されるレシピ出力処理の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of a recipe output process executed in the image processing system according to the embodiment of the present invention. 図4は、本発明の実施形態に係る画像処理システムの記憶部に記憶されるテーブルデータの一例を示す図である。FIG. 4 is a diagram illustrating an example of table data stored in the storage unit of the image processing system according to the embodiment of the present invention. 図5は、本発明の実施形態に係る画像処理システムの操作表示部に表示される設定操作画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a setting operation screen displayed on the operation display unit of the image processing system according to the embodiment of the present invention. 図6は、本発明の実施形態に係る画像処理システムの操作表示部に表示される選択操作画面の一例を示す図である。FIG. 6 is a diagram illustrating an example of a selection operation screen displayed on the operation display unit of the image processing system according to the embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明し、本発明の理解に供する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定する性格のものではない。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings for understanding of the present invention. In addition, the following embodiment is an example which actualized this invention, Comprising: The thing of the character which limits the technical scope of this invention is not.

[画像処理システム100]
本発明の実施形態に係る画像処理システム100は、図1に示されるように、携帯端末10と、画像処理装置20とを備える。画像処理システム100では、携帯端末10及び画像処理装置20の間で無線によるデータ通信が実行される。
[Image processing system 100]
An image processing system 100 according to an embodiment of the present invention includes a mobile terminal 10 and an image processing device 20 as shown in FIG. In the image processing system 100, wireless data communication is executed between the mobile terminal 10 and the image processing apparatus 20.

[携帯端末10]
携帯端末10は、画像処理装置20のユーザーなどによって持ち運ばれるスマートフォン又はウェアラブル端末などの移動通信端末である。具体的に、携帯端末10は、図1に示されるように、制御部11、操作表示部12、通信部13、及び記憶部14を備える。なお、携帯端末10は、携帯電話、タブレット端末、ノートパソコン、又はPDAなどであってもよい。
[Portable terminal 10]
The portable terminal 10 is a mobile communication terminal such as a smartphone or a wearable terminal that is carried by a user of the image processing apparatus 20 or the like. Specifically, the mobile terminal 10 includes a control unit 11, an operation display unit 12, a communication unit 13, and a storage unit 14, as shown in FIG. Note that the mobile terminal 10 may be a mobile phone, a tablet terminal, a notebook computer, a PDA, or the like.

操作表示部12は、制御部11からの制御指示に応じて各種の情報を表示する液晶ディスプレーなどの表示部、及びユーザーの操作に応じて制御部11に各種の情報を入力するタッチパネルなどの操作部を有する。   The operation display unit 12 is an operation of a display unit such as a liquid crystal display that displays various types of information according to control instructions from the control unit 11 and a touch panel that inputs various types of information to the control unit 11 according to user operations. Part.

通信部13は、画像処理装置20などの外部の通信機器との間で、無線によるデータ通信を実行可能な通信インターフェイスである。例えば、通信部13は、前記通信機器との間でBluetooth(登録商標)によって規定された所定の通信プロトコルに従って無線によるデータ通信を実行する。例えば、通信部13は、クラス2と称される電波強度(2.5mW)で、携帯端末10から約10mの範囲に存在する前記通信機器との間でBluetoothによる無線通信を実行可能である。なお、通信部13は、前記通信機器との間で無線LANの通信規格に従った無線通信を実行してもよい。   The communication unit 13 is a communication interface that can perform wireless data communication with an external communication device such as the image processing apparatus 20. For example, the communication unit 13 performs wireless data communication with the communication device according to a predetermined communication protocol defined by Bluetooth (registered trademark). For example, the communication unit 13 can execute wireless communication by Bluetooth with the communication device existing in a range of about 10 m from the mobile terminal 10 with a radio wave intensity (2.5 mW) called class 2. The communication unit 13 may execute wireless communication with the communication device in accordance with a wireless LAN communication standard.

ここで、携帯端末10では、予め画像処理装置20との間で、Bluetooth通信における通信相手の認証手続であるペアリングが実行されている。前記ペアリングでは、Bluetooth通信を行う機器相互間で、通信相手の認証のために必要となるペアリングIDが交換される。そして、前記ペアリングにより携帯端末10が取得した画像処理装置20の前記ペアリングIDが、記憶部14に記憶されている。これにより、その後、携帯端末10と画像処理装置20との間でBluetoothによる無線通信が可能である。   Here, in the mobile terminal 10, pairing, which is an authentication procedure for a communication partner in Bluetooth communication, is executed in advance with the image processing apparatus 20. In the pairing, a pairing ID necessary for authentication of a communication partner is exchanged between devices that perform Bluetooth communication. Then, the pairing ID of the image processing apparatus 20 acquired by the portable terminal 10 by the pairing is stored in the storage unit 14. Thereby, the wireless communication by Bluetooth is possible between the portable terminal 10 and the image processing device 20 thereafter.

記憶部14は、フラッシュメモリー等の不揮発性の記憶部であり、制御部11によるデータの読み書きが可能である。なお、記憶部14には、画像処理装置20の前記ペアリングIDが記憶されている。   The storage unit 14 is a non-volatile storage unit such as a flash memory, and data can be read and written by the control unit 11. The storage unit 14 stores the pairing ID of the image processing apparatus 20.

また、記憶部14には、ユーザーの日々のスケジュールに関するスケジュール情報が記憶されている。例えば、前記スケジュール情報は、操作表示部12におけるユーザーの操作に応じて作成又は編集されて、記憶部14に記憶される。また、前記スケジュール情報は、操作表示部12におけるユーザーの操作に応じて、記憶部14から読み出されて操作表示部12に表示される。   The storage unit 14 stores schedule information related to the daily schedule of the user. For example, the schedule information is created or edited in accordance with a user operation on the operation display unit 12 and stored in the storage unit 14. The schedule information is read from the storage unit 14 and displayed on the operation display unit 12 in accordance with a user operation on the operation display unit 12.

制御部11は、不図示のCPU、ROM、RAM、及びEEPROM(登録商標)などの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶部である。前記RAMは揮発性の記憶部であり、前記EEPROMは不揮発性の記憶部である。前記RAM及び前記EEPROMは、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。制御部11では、前記CPUにより前記ROMに予め記憶された各種の制御プログラムが実行される。これにより、携帯端末10が制御部11により統括的に制御される。なお、制御部11は、集積回路(ASIC)などの電子回路で構成されたものであってもよく、携帯端末10を統括的に制御するメイン制御部とは別に設けられた制御部であってもよい。   The control unit 11 includes control devices such as a CPU, ROM, RAM, and EEPROM (registered trademark) (not shown). The CPU is a processor that executes various arithmetic processes. The ROM is a non-volatile storage unit in which information such as a control program for causing the CPU to execute various processes is stored in advance. The RAM is a volatile storage unit, and the EEPROM is a non-volatile storage unit. The RAM and the EEPROM are used as a temporary storage memory (working area) for various processes executed by the CPU. In the control unit 11, various control programs stored in advance in the ROM are executed by the CPU. As a result, the mobile terminal 10 is comprehensively controlled by the control unit 11. The control unit 11 may be configured by an electronic circuit such as an integrated circuit (ASIC), and is a control unit provided separately from the main control unit that controls the mobile terminal 10 in an integrated manner. Also good.

また、制御部11は、図1に示されるように、取得処理部111を含む。具体的に、制御部11は、前記CPUを用いて前記ROMに記憶されている制御プログラムを実行する。これにより、制御部11は、取得処理部111として機能する。なお、制御部11は、前記CPUを用いて記憶部14にインストールされるアプリケーションプログラムを実行することで、取得処理部111として機能してもよい。   Moreover, the control part 11 contains the acquisition process part 111, as FIG. 1 shows. Specifically, the control unit 11 executes a control program stored in the ROM using the CPU. Thereby, the control unit 11 functions as the acquisition processing unit 111. The control unit 11 may function as the acquisition processing unit 111 by executing an application program installed in the storage unit 14 using the CPU.

取得処理部111は、ユーザーの健康状態に関する健康情報を取得する。例えば、前記健康情報には、ユーザーの歩数、脈拍、睡眠情報、及び視線移動量が含まれる。例えば、前記睡眠情報には、ユーザーの就寝時刻及び起床時刻が含まれる。   The acquisition processing unit 111 acquires health information related to the user's health status. For example, the health information includes the user's number of steps, pulse, sleep information, and eye movement amount. For example, the sleep information includes a user's bedtime and wake-up time.

例えば、取得処理部111は、携帯端末10に搭載される加速度センサー及び光センサーなどの不図示のセンサーを用いて、ユーザーの歩数、及び脈拍を検出し、検出された前記健康情報を記憶部14に記憶させる。例えば、取得処理部111は、前記センサーで検出されるユーザーの1日当たりの歩数をカウントして、カウントされたユーザーの歩数を記憶部14に記憶させる。また、取得処理部111は、予め定められたタイミング毎にユーザーの脈拍を検出して、検出されたユーザーの脈拍を記憶部14に記憶させる。   For example, the acquisition processing unit 111 detects the number of steps and the pulse of the user using sensors (not shown) such as an acceleration sensor and an optical sensor mounted on the mobile terminal 10, and stores the detected health information in the storage unit 14. Remember me. For example, the acquisition processing unit 111 counts the number of steps per day of the user detected by the sensor, and stores the counted number of steps of the user in the storage unit 14. In addition, the acquisition processing unit 111 detects the user's pulse at each predetermined timing, and causes the storage unit 14 to store the detected user's pulse.

また、取得処理部111は、ユーザー操作に応じてユーザーの就寝時刻及び起床時刻(前記睡眠情報)を取得し、取得された前記睡眠情報を記憶部14に記憶させる。なお、取得処理部111は、前記センサーで検出されるユーザーの就寝中の活動量等からユーザーの睡眠状態(レム睡眠であるか、ノンレム睡眠であるか等)を判定して、判定結果を前記睡眠情報として記憶部14に記憶させてもよい。   In addition, the acquisition processing unit 111 acquires the user's bedtime and wake-up time (the sleep information) in accordance with a user operation, and stores the acquired sleep information in the storage unit 14. The acquisition processing unit 111 determines the user's sleep state (whether it is REM sleep or non-REM sleep, etc.) from the amount of activity during the user's sleeping detected by the sensor, and the determination result is You may memorize | store in the memory | storage part 14 as sleep information.

また、取得処理部111は、視線移動を検出可能な外部の眼鏡型端末と無線によるデータ通信を実行して、前記眼鏡型端末で検出されるユーザーの視線移動量を取得し、取得されたユーザーの視線移動量を記憶部14に記憶させる。なお、取得処理部111は、外部の検出装置と無線によるデータ通信を実行して、前記検出装置で検出されるユーザーの歩数、脈拍、及び前記睡眠情報を取得してもよい。   In addition, the acquisition processing unit 111 performs wireless data communication with an external spectacle-type terminal capable of detecting eye-gaze movement, acquires the user's eye-gaze movement amount detected by the eyeglass-type terminal, and acquires the acquired user Are stored in the storage unit 14. The acquisition processing unit 111 may acquire the number of steps of the user, the pulse, and the sleep information detected by the detection device by performing wireless data communication with an external detection device.

[画像処理装置20]
画像処理装置20は、画像データに基づいて画像を形成するプリント機能と共に、スキャン機能、ファクシミリ機能、及びコピー機能などの複数の機能を有する複合機である。具体的に、画像処理装置20は、図1及び図2に示されるように、ADF21、画像読取部22、画像形成部23、給紙部24、制御部25、操作表示部26、通信部27、及び記憶部28を備える。なお、画像処理装置20は、スキャナー、プリンター装置、ファクシミリ装置、コピー機、パーソナルコンピューター、スマートフォン、タブレット端末などであってもよい。
[Image Processing Device 20]
The image processing apparatus 20 is a multi-function machine having a print function for forming an image based on image data and a plurality of functions such as a scan function, a facsimile function, and a copy function. Specifically, as illustrated in FIGS. 1 and 2, the image processing apparatus 20 includes an ADF 21, an image reading unit 22, an image forming unit 23, a paper feeding unit 24, a control unit 25, an operation display unit 26, and a communication unit 27. And a storage unit 28. Note that the image processing apparatus 20 may be a scanner, a printer apparatus, a facsimile apparatus, a copier, a personal computer, a smartphone, a tablet terminal, or the like.

ADF21は、原稿セット部、複数の搬送ローラー、原稿押さえ、及び排紙部を備え、画像読取部22によって読み取られる原稿を搬送する自動原稿搬送装置である。画像読取部22は、原稿台、光源、複数のミラー、光学レンズ、及びCCD(Charge Coupled Device)を備え、原稿から画像データを読み取る。   The ADF 21 is an automatic document conveyance device that includes a document setting unit, a plurality of conveyance rollers, a document pressing unit, and a paper discharge unit, and conveys a document read by the image reading unit 22. The image reading unit 22 includes a document table, a light source, a plurality of mirrors, an optical lens, and a CCD (Charge Coupled Device), and reads image data from the document.

画像形成部23は、画像読取部22で読み取られた画像データ又は外部のパーソナルコンピューター等の情報処理装置から入力された画像データに基づいて、電子写真方式でカラー又はモノクロの画像を形成する画像形成処理(印刷処理)を実行することが可能である。具体的に、画像形成部23は、C(シアン)、M(マゼンタ)、Y(イエロー)、及びK(ブラック)に対応する複数の画像形成ユニット、光走査装置(LSU)、中間転写ベルト、二次転写ローラー、定着装置、及び排紙トレイを備える。そして、画像形成部23では、給紙部24から供給されるシートにカラー又はモノクロの画像が形成されて、画像形成後の前記シートが前記排紙トレイに排出される。   The image forming unit 23 forms an image of color or monochrome by an electrophotographic method based on image data read by the image reading unit 22 or image data input from an information processing apparatus such as an external personal computer. It is possible to execute processing (print processing). Specifically, the image forming unit 23 includes a plurality of image forming units corresponding to C (cyan), M (magenta), Y (yellow), and K (black), an optical scanning device (LSU), an intermediate transfer belt, A secondary transfer roller, a fixing device, and a paper discharge tray are provided. In the image forming unit 23, a color or monochrome image is formed on the sheet supplied from the paper feeding unit 24, and the sheet after the image formation is discharged to the paper discharge tray.

制御部25は、不図示のCPU、ROM、RAM、及びEEPROMなどの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶部である。前記RAMは揮発性の記憶部であり、前記EEPROMは不揮発性の記憶部である。前記RAM及び前記EEPROMは、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。制御部25では、前記CPUにより前記ROMに予め記憶された各種の制御プログラムが実行される。これにより、画像処理装置20が制御部25により統括的に制御される。なお、制御部25は、集積回路(ASIC)などの電子回路で構成されたものであってもよく、画像処理装置20を統括的に制御するメイン制御部とは別に設けられた制御部であってもよい。   The control unit 25 includes control devices such as a CPU, ROM, RAM, and EEPROM (not shown). The CPU is a processor that executes various arithmetic processes. The ROM is a non-volatile storage unit in which information such as a control program for causing the CPU to execute various processes is stored in advance. The RAM is a volatile storage unit, and the EEPROM is a non-volatile storage unit. The RAM and the EEPROM are used as a temporary storage memory (working area) for various processes executed by the CPU. In the control unit 25, various control programs stored in advance in the ROM are executed by the CPU. As a result, the image processing apparatus 20 is comprehensively controlled by the control unit 25. The control unit 25 may be configured by an electronic circuit such as an integrated circuit (ASIC), and is a control unit provided separately from the main control unit that comprehensively controls the image processing apparatus 20. May be.

また、制御部25は、図1に示されるように、認証処理部250を含む。具体的に、制御部25は、前記CPUを用いて前記ROMに記憶されている制御プログラムを実行する。これにより、制御部25は、認証処理部250として機能する。   Moreover, the control part 25 contains the authentication process part 250, as FIG. 1 shows. Specifically, the control unit 25 executes a control program stored in the ROM using the CPU. Thereby, the control unit 25 functions as the authentication processing unit 250.

認証処理部250は、予め設定された認証操作に応じてユーザーを認証するログイン処理を実行する。例えば、認証処理部250は、操作表示部26に前記認証操作を行うことが可能な認証画面を必要に応じて表示させる。そして、認証処理部250は、前記認証画面においてユーザーによる操作表示部26に対するログイン情報の入力操作を受け付ける。前記ログイン情報は、ユーザー名及びパスワードである。即ち、前記認証画面における前記ログイン情報の入力操作が、前記認証操作の一例である。   The authentication processing unit 250 executes a login process for authenticating a user in accordance with a preset authentication operation. For example, the authentication processing unit 250 causes the operation display unit 26 to display an authentication screen on which the authentication operation can be performed as necessary. And the authentication process part 250 receives the input operation of the login information with respect to the operation display part 26 by a user in the said authentication screen. The login information is a user name and a password. That is, the input operation of the login information on the authentication screen is an example of the authentication operation.

その後、認証処理部250は、操作表示部26から入力された前記ログイン情報が記憶部28に記憶されている認証情報に含まれている場合に認証完了と判断し、ユーザーを画像処理装置20にログインさせる。なお、認証処理部250は、操作表示部26に対するログアウト操作が行われた場合、予め設定された時間が経過した場合、又は他のユーザーをログインさせる場合に、現在ログイン中のユーザーをログアウトさせるログアウト処理を実行する。   Thereafter, the authentication processing unit 250 determines that the authentication is complete when the login information input from the operation display unit 26 is included in the authentication information stored in the storage unit 28, and sends the user to the image processing apparatus 20. Log in. The authentication processing unit 250 logs out the currently logged-in user when a logout operation is performed on the operation display unit 26, when a preset time has elapsed, or when logging in another user. Execute the process.

操作表示部26は、制御部25からの制御指示に応じて各種の情報を表示する液晶ディスプレーなどの表示部、及びユーザーの操作に応じて制御部25に各種の情報を入力するタッチパネルなどの操作部を有する。   The operation display unit 26 operates a display unit such as a liquid crystal display that displays various types of information according to control instructions from the control unit 25, and a touch panel that inputs various types of information to the control unit 25 according to user operations. Part.

通信部27は、携帯端末10などの外部の通信機器との間で、有線又は無線によるデータ通信を実行可能な通信インターフェイスである。例えば、通信部27は、前記通信機器との間でBluetoothによって規定された所定の通信プロトコルに従って無線によるデータ通信を実行する。例えば、通信部27は、携帯端末10と同様にクラス2の電波強度で、画像処理装置20から約10mの範囲に存在する前記通信機器との間でBluetoothによる無線通信を実行可能である。ここで、画像処理装置20では、予め携帯端末10との間で前記ペアリングが実行されており、携帯端末10の前記ペアリングIDが記憶部28に記憶されている。なお、通信部27は、前記通信機器との間でインターネット又はLAN等の通信ネットワークを介して有線又は無線によるデータ通信を実行してもよい。   The communication unit 27 is a communication interface that can perform wired or wireless data communication with an external communication device such as the mobile terminal 10. For example, the communication unit 27 performs wireless data communication with the communication device according to a predetermined communication protocol defined by Bluetooth. For example, the communication unit 27 can execute wireless communication by Bluetooth with the communication device existing in the range of about 10 m from the image processing apparatus 20 with the class 2 radio wave intensity similarly to the mobile terminal 10. Here, in the image processing apparatus 20, the pairing is executed in advance with the mobile terminal 10, and the pairing ID of the mobile terminal 10 is stored in the storage unit 28. Note that the communication unit 27 may execute wired or wireless data communication with the communication device via a communication network such as the Internet or a LAN.

記憶部28は、ソリッドステートドライブ(SSD)又はハードディスクドライブ(HDD)などの記憶部である。記憶部28には、ユーザーの前記認証情報が記憶されている。また、記憶部28には、携帯端末10の前記ペアリングIDが記憶されている。また、記憶部28には、画像処理装置20の位置情報が記憶されている。   The storage unit 28 is a storage unit such as a solid state drive (SSD) or a hard disk drive (HDD). The storage unit 28 stores the authentication information of the user. Further, the storage unit 28 stores the pairing ID of the mobile terminal 10. Further, the storage unit 28 stores position information of the image processing apparatus 20.

ここで、画像処理システム100では、ユーザーの前記認証情報が、予めそのユーザーの所持する携帯端末10の前記ペアリングIDに対応付けられて登録されている。具体的に、画像処理装置20の記憶部28では、前記認証情報と前記ペアリングIDとが対応付けられて記憶されている。なお、前記ペアリングIDに替えて、携帯端末10のIPアドレス又はMACアドレスが、前記認証情報と対応付けられて記憶部28に記憶されていてもよい。   Here, in the image processing system 100, the authentication information of the user is registered in advance in association with the pairing ID of the mobile terminal 10 possessed by the user. Specifically, in the storage unit 28 of the image processing apparatus 20, the authentication information and the pairing ID are stored in association with each other. Instead of the pairing ID, the IP address or MAC address of the mobile terminal 10 may be stored in the storage unit 28 in association with the authentication information.

ところで、画像処理装置20のユーザーは、食費を抑えるために、スーパーのような食料品販売店のチラシに掲載された食材を用いて調理を行うことがある。この場合、ユーザーにおいて、チラシに掲載された食材を用いた料理のレシピを探す手間が生じる。これに対し、本発明の実施形態に係る画像処理システム100では、料理のレシピを探すユーザーの手間を軽減することが可能である。   By the way, the user of the image processing apparatus 20 sometimes performs cooking using foods posted on a leaflet of a grocery store such as a supermarket in order to reduce food costs. In this case, the user has to search for a recipe for cooking using the ingredients listed on the flyer. On the other hand, in the image processing system 100 according to the embodiment of the present invention, it is possible to reduce the user's trouble of searching for a recipe for cooking.

具体的に、記憶部28には、制御部25の前記CPUに後述のレシピ出力処理(図3のフローチャート参照)を実行させるためのレシピ出力プログラムが予め記憶されている。なお、前記レシピ出力プログラムは、CD、DVD、フラッシュメモリーなどのコンピューター読み取り可能な記録媒体に記録されており、前記記録媒体から読み取られて記憶部28等にインストールされてもよい。   Specifically, the storage unit 28 stores in advance a recipe output program for causing the CPU of the control unit 25 to execute a later-described recipe output process (see the flowchart of FIG. 3). The recipe output program may be recorded on a computer-readable recording medium such as a CD, a DVD, or a flash memory, and read from the recording medium and installed in the storage unit 28 or the like.

そして、制御部25は、図1に示されるように、画像取得部251、店舗抽出部252、食材抽出部253、第1設定処理部254、疲労情報取得部255、判定処理部256、レシピ取得部257、第2設定処理部258、及び出力処理部259を更に含む。具体的に、制御部25は、前記CPUを用いて記憶部28に記憶されている前記レシピ出力プログラムを実行する。これにより、制御部25は、画像取得部251、店舗抽出部252、食材抽出部253、第1設定処理部254、疲労情報取得部255、判定処理部256、レシピ取得部257、第2設定処理部258、及び出力処理部259として機能する。   Then, as shown in FIG. 1, the control unit 25 includes an image acquisition unit 251, a store extraction unit 252, a food material extraction unit 253, a first setting processing unit 254, a fatigue information acquisition unit 255, a determination processing unit 256, and a recipe acquisition. 257, a second setting processing unit 258, and an output processing unit 259. Specifically, the control unit 25 executes the recipe output program stored in the storage unit 28 using the CPU. Thereby, the control part 25 is the image acquisition part 251, the store extraction part 252, the foodstuff extraction part 253, the 1st setting process part 254, the fatigue information acquisition part 255, the determination process part 256, the recipe acquisition part 257, the 2nd setting process. Functions as a unit 258 and an output processing unit 259.

画像取得部251は、食材に関する情報が掲載されるチラシの画像データを取得する。ここで、前記チラシは、スーパーマーケットなどの食料品販売店が発行する広告物である。前記チラシには、掲載される商品の一部又は全部である食材に関する情報が含まれる。例えば、前記チラシには、食材の名称、食材の販売価格、食材の産地、食材の画像、前記チラシを発行した店舗の名称、及び店舗の位置などの情報が含まれる。なお、前記チラシは、前記チラシに掲載される情報が電子化された電子チラシであってもよい。   The image acquisition unit 251 acquires image data of a leaflet on which information on foodstuffs is posted. Here, the leaflet is an advertisement issued by a grocery store such as a supermarket. The flyer includes information about ingredients that are part or all of the product to be posted. For example, the leaflet includes information such as the name of the food, the selling price of the food, the production area of the food, the image of the food, the name of the store that issued the leaflet, and the location of the store. The leaflet may be an electronic leaflet in which information posted on the leaflet is digitized.

例えば、画像取得部251は、画像読取部22を用いて前記チラシの原稿から前記チラシの画像データを取得する。具体的に、画像取得部251は、ADF21の前記原稿セット部に前記チラシの原稿が載置されている場合には、ADF21及び画像読取部22を用いて、前記原稿セット部に載置された前記チラシの原稿から前記チラシの画像データを読み取る。また、画像取得部251は、画像読取部22の前記原稿台に前記チラシの原稿が載置されている場合には、画像読取部22を用いて、前記原稿台に載置された前記チラシの原稿から前記チラシの画像データを読み取る。   For example, the image acquisition unit 251 acquires the image data of the leaflet from the document of the leaflet using the image reading unit 22. Specifically, when the leaflet document is placed on the document setting unit of the ADF 21, the image acquisition unit 251 is placed on the document setting unit using the ADF 21 and the image reading unit 22. The image data of the leaflet is read from the manuscript of the leaflet. In addition, when the flyer document is placed on the document table of the image reading unit 22, the image acquisition unit 251 uses the image reading unit 22 to read the leaflet placed on the document table. The image data of the leaflet is read from the manuscript.

また、画像取得部251は、携帯端末10などの外部の情報処理装置から送信される前記チラシの画像データを受信することで、前記チラシの画像データを取得してもよい。また、画像取得部251は、画像読取部22によって読み取られて、又は外部の情報処理装置から送信されて記憶部28に格納された前記チラシの画像データを読み出すことで、前記チラシの画像データを取得してもよい。   The image acquisition unit 251 may acquire the image data of the leaflet by receiving the image data of the leaflet transmitted from an external information processing apparatus such as the mobile terminal 10. Further, the image acquisition unit 251 reads the image data of the flyer by reading the image data of the flyer that is read by the image reading unit 22 or transmitted from an external information processing apparatus and stored in the storage unit 28. You may get it.

店舗抽出部252は、画像取得部251によって取得された前記チラシの画像データに基づいて、前記チラシを発行した特定店舗に関する店舗情報を抽出する。ここで、前記店舗情報には、前記特定店舗の名称、及び位置情報などの情報が含まれる。ここに、店舗抽出部252が、本発明における位置情報抽出部の一例である。   The store extraction unit 252 extracts store information regarding the specific store that issued the leaflet based on the image data of the leaflet acquired by the image acquisition unit 251. Here, the store information includes information such as the name of the specific store and location information. Here, the store extraction unit 252 is an example of a position information extraction unit in the present invention.

例えば、店舗抽出部252は、画像取得部251によって取得された前記チラシの画像データに基づいて、前記チラシの画像データに含まれる文字を認識するOCR(光学文字認識)処理を実行する。そして、店舗抽出部252は、前記OCR処理の実行結果に基づいて、前記店舗情報を抽出する。また、店舗抽出部252は、画像取得部251によって複数枚の前記チラシ各々の画像データが取得された場合は、前記チラシ各々の前記店舗情報を抽出する。   For example, the store extraction unit 252 executes OCR (optical character recognition) processing for recognizing characters included in the image data of the leaflet based on the image data of the leaflet acquired by the image acquisition unit 251. And the store extraction part 252 extracts the said store information based on the execution result of the said OCR process. In addition, when the image acquisition unit 251 acquires image data of each of the plurality of leaflets, the store extraction unit 252 extracts the store information of each of the leaflets.

食材抽出部253は、画像取得部251によって取得された前記チラシの画像データに基づいて、前記チラシに掲載された特定食材に関する食材情報を抽出する。例えば、前記食材情報には、前記特定食材の名称、販売価格、及び産地などの情報が含まれる。   The food material extraction unit 253 extracts food material information related to the specific food material posted on the leaflet based on the image data of the leaflet acquired by the image acquisition unit 251. For example, the food material information includes information such as the name, sales price, and production area of the specific food.

例えば、食材抽出部253は、店舗抽出部252によって実行された前記OCR処理の実行結果に基づいて、前記チラシに掲載された複数の前記特定食材各々に関する前記食材情報を抽出する。また、食材抽出部253は、画像取得部251によって複数枚の前記チラシ各々の画像データが取得された場合は、同一の前記チラシから抽出される前記店舗情報及び前記食材情報を互いに関連付ける。   For example, the food material extraction unit 253 extracts the food material information related to each of the plurality of specific food materials posted on the flyer based on the execution result of the OCR process executed by the store extraction unit 252. In addition, when the image acquisition unit 251 acquires image data of each of the plurality of leaflets, the food material extraction unit 253 associates the store information and the food material information extracted from the same leaflet.

第1設定処理部254は、ユーザー操作に応じて前記特定食材を絞り込む第1絞込条件を設定する。例えば、前記第1絞込条件には、前記特定食材の産地が予め指定された地域に含まれること、前記特定食材が予め指定された食材に該当しないこと、及び前記特定食材を掲載する前記チラシが予め指定された距離の範囲内の前記特定店舗で発行されたこと、などが含まれる。   The first setting processing unit 254 sets a first narrowing condition for narrowing down the specific food material according to a user operation. For example, the first narrowing-down condition includes that the production area of the specific food is included in a predesignated area, the specific food does not correspond to a predesignated food, and the flyer that posts the specific food Is issued at the specific store within the range of the distance specified in advance.

例えば、第1設定処理部254は、画像取得部251によって前記チラシの画像データが取得された場合に、前記第1絞込条件、及び後述する第2絞込条件の設定に用いられる設定操作画面を操作表示部26に表示させる。そして、第1設定処理部254は、前記設定操作画面におけるユーザー操作に応じて、前記第1絞込条件を設定する。   For example, the first setting processing unit 254, when the image data of the leaflet is acquired by the image acquisition unit 251, the setting operation screen used for setting the first narrowing condition and the second narrowing condition described later Is displayed on the operation display unit 26. Then, the first setting processing unit 254 sets the first narrowing condition according to a user operation on the setting operation screen.

なお、前記第1絞込条件は、画像処理装置20にログイン可能なユーザーごとに予め画像処理装置20に登録されていてもよい。例えば、ユーザーによって設定された前記第1絞込条件が、記憶部28における前記ユーザーに割り当てられた記憶領域に予め記憶されていてもよい。   The first narrowing condition may be registered in advance in the image processing apparatus 20 for each user who can log in to the image processing apparatus 20. For example, the first narrowing condition set by the user may be stored in advance in a storage area assigned to the user in the storage unit 28.

疲労情報取得部255は、ユーザーの疲労状態に関する疲労情報を取得する。ここで、前記疲労情報には、前記健康情報及び前記スケジュール情報が含まれる。即ち、前記健康情報及び前記スケジュール情報が、本発明における疲労情報の一例である。   The fatigue information acquisition unit 255 acquires fatigue information related to the user's fatigue state. Here, the fatigue information includes the health information and the schedule information. That is, the health information and the schedule information are examples of fatigue information in the present invention.

例えば、疲労情報取得部255は、ユーザーが画像処理装置20にログインしている場合には、ログイン中のユーザーに対応する携帯端末10から、前記健康情報及び前記スケジュール情報を取得する。具体的に、疲労情報取得部255は、ログイン中のユーザーの前記認証情報に対応付けられた前記ペアリングIDによって識別される携帯端末10から前記健康情報及び前記スケジュール情報を取得する。   For example, when the user is logged in to the image processing apparatus 20, the fatigue information acquisition unit 255 acquires the health information and the schedule information from the mobile terminal 10 corresponding to the logged-in user. Specifically, the fatigue information acquisition unit 255 acquires the health information and the schedule information from the mobile terminal 10 identified by the pairing ID associated with the authentication information of the logged-in user.

また、疲労情報取得部255は、ユーザーが画像処理装置20にログインしていない場合には、操作表示部26に前記認証画面を表示させる。そして、疲労情報取得部255は、前記認証画面における前記認証操作によりユーザーが画像処理装置20にログインした場合に、ログインしたユーザーに対応する携帯端末10から前記健康情報及び前記スケジュール情報を取得する。   Further, the fatigue information acquisition unit 255 displays the authentication screen on the operation display unit 26 when the user has not logged in to the image processing apparatus 20. The fatigue information acquisition unit 255 acquires the health information and the schedule information from the portable terminal 10 corresponding to the logged-in user when the user logs in to the image processing apparatus 20 by the authentication operation on the authentication screen.

判定処理部256は、疲労情報取得部255によって取得された前記疲労情報に基づいて、ユーザーが疲労しているか否かを判定する。   The determination processing unit 256 determines whether or not the user is fatigued based on the fatigue information acquired by the fatigue information acquisition unit 255.

例えば、判定処理部256は、前記疲労情報に含まれる歩数が予め設定された基準歩数を超える場合に、ユーザーが疲労していると判定する。また、判定処理部256は、前記疲労情報に含まれる予め定められた起床時刻に検出された脈拍が予め設定された基準脈拍数以上である場合に、ユーザーが疲労していると判定する。また、判定処理部256は、前記疲労情報に含まれる前記睡眠情報によって算出される睡眠時間が予め定められた第1基準時間未満である場合に、ユーザーが疲労していると判定する。また、判定処理部256は、前記疲労情報に含まれる視線移動量が予め定められた基準移動量を超える場合に、ユーザーが疲労していると判定する。また、判定処理部256は、前記疲労情報に含まれる前記スケジュール情報によって示されるユーザーの自由時間が予め設定された第2基準時間未満である場合に、ユーザーが疲労していると判定する。なお、判定処理部256は、前記疲労情報に含まれる歩数、脈拍、前記睡眠情報、視線移動量、及び前記スケジュール情報のいずれか一つ又は複数に基づいてユーザーが疲労していると判定してもよい。また、判定処理部256による判定方法は、以上と異なるものであってもよい。   For example, the determination processing unit 256 determines that the user is tired when the number of steps included in the fatigue information exceeds a preset reference number of steps. In addition, the determination processing unit 256 determines that the user is tired when the pulse detected at the predetermined wake-up time included in the fatigue information is equal to or higher than a preset reference pulse rate. In addition, the determination processing unit 256 determines that the user is tired when the sleep time calculated from the sleep information included in the fatigue information is less than a predetermined first reference time. The determination processing unit 256 determines that the user is fatigued when the line-of-sight movement amount included in the fatigue information exceeds a predetermined reference movement amount. The determination processing unit 256 determines that the user is tired when the user's free time indicated by the schedule information included in the fatigue information is less than a preset second reference time. The determination processing unit 256 determines that the user is tired based on any one or more of the number of steps included in the fatigue information, the pulse, the sleep information, the line-of-sight movement amount, and the schedule information. Also good. Further, the determination method by the determination processing unit 256 may be different from the above.

レシピ取得部257は、食材抽出部253によって抽出された前記食材情報に基づいて、前記特定食材を用いた特定料理のレシピに関するレシピ情報を取得する。例えば、前記レシピ情報には、前記特定料理のレシピと共に、前記特定料理のレシピに含まれる前記特定食材の前記食材情報、前記特定食材を販売する前記特定店舗の前記店舗情報、前記特定料理のコスト、及び前記特定料理の摂取カロリーなどの情報が含まれる。また、前記レシピ情報には、前記特定料理の画像、及び前記特定食材の画像が含まれていてもよい。   The recipe acquisition unit 257 acquires recipe information related to a recipe for a specific dish using the specific food, based on the food information extracted by the food extraction unit 253. For example, the recipe information includes the recipe for the specific dish, the ingredient information of the specific ingredient included in the recipe for the specific dish, the store information of the particular store that sells the particular ingredient, and the cost of the particular dish And information such as calorie intake of the specific dish. Further, the recipe information may include an image of the specific dish and an image of the specific food material.

具体的に、レシピ取得部257は、食材抽出部253によって抽出された前記食材情報のうち、第1設定処理部254により設定された前記第1絞込条件を充足する前記特定食材に関する前記食材情報に基づいて、前記レシピ情報を取得する。例えば、画像処理装置20では、複数の料理のレシピを含むデータベースが予め記憶部28に記憶されている。レシピ取得部257は、前記第1絞込条件を充足する前記特定食材に関する前記食材情報に基づいて、記憶部28に記憶されている前記データベースから、前記第1絞込条件を充足する前記特定食材を用いた前記特定料理のレシピを取得する。   Specifically, the recipe acquisition unit 257 includes the food material information related to the specific food that satisfies the first narrowing condition set by the first setting processing unit 254 among the food material information extracted by the food material extraction unit 253. To obtain the recipe information. For example, in the image processing apparatus 20, a database including a plurality of cooking recipes is stored in the storage unit 28 in advance. The recipe acquisition unit 257 is configured to satisfy the first refinement condition from the database stored in the storage unit 28 based on the ingredient information related to the particular ingredient that satisfies the first refinement condition. The recipe of the specific dish using is acquired.

なお、前記特定食材が前記第1絞込条件を充足するか否かの判断は、食材抽出部253が行ってもよい。即ち、食材抽出部253は、前記第1絞込条件を充足する前記特定食材に関する前記食材情報のみを抽出してもよい。また、前記データベースは、予め定められた外部の情報処理装置の備える記憶部に記憶されていてもよい。この場合、レシピ取得部257は、前記外部の情報処理装置と通信を行うことで、前記外部の情報処理装置から前記特定食材を用いた前記特定料理のレシピを取得する。   The food extraction unit 253 may determine whether or not the specific food satisfies the first narrowing condition. That is, the food material extraction unit 253 may extract only the food material information related to the specific food material that satisfies the first narrowing condition. The database may be stored in a storage unit included in a predetermined external information processing apparatus. In this case, the recipe acquisition unit 257 acquires the recipe for the specific dish using the specific ingredients from the external information processing device by communicating with the external information processing device.

例えば、レシピ取得部257は、取得された前記特定料理のレシピ、及び前記特定料理のレシピに含まれる前記特定食材の前記食材情報に基づいて、前記特定料理のコストを算出する。ここで、複数の前記チラシから前記食材情報が抽出される場合に、前記特定料理のレシピに含まれる一つの前記特定食材に関する前記食材情報が複数存在することがある。この場合、レシピ取得部257は、前記特定食材の販売価格が最も安い前記食材情報を含む前記レシピ情報を取得する。なお、レシピ取得部257は、前記特定店舗の位置が最も近い前記チラシから抽出された前記食材情報を含む前記レシピ情報を取得してもよい。   For example, the recipe acquisition unit 257 calculates the cost of the specific dish based on the acquired recipe of the specific dish and the food information of the specific food included in the recipe of the specific dish. Here, when the food information is extracted from a plurality of the leaflets, there may be a plurality of the food information related to one specific food contained in the recipe of the specific food. In this case, the recipe acquisition unit 257 acquires the recipe information including the food information with the lowest selling price of the specific food. Note that the recipe acquisition unit 257 may acquire the recipe information including the ingredient information extracted from the leaflet with the closest location of the specific store.

また、レシピ取得部257は、取得された前記特定料理のレシピに基づいて、前記特定料理の摂取カロリーを算出する。例えば、画像処理装置20では、予め記憶部28に食材と食材の摂取カロリーとが対応付けられたテーブルデータが記憶されている。図4に、記憶部28に記憶されている前記テーブルデータの一例を示す。レシピ取得部257は、記憶部28に記憶されている前記テーブルデータを参照して、前記特定料理のレシピに含まれる前記特定食材各々の摂取カロリーを取得して合算することで、前記特定料理の摂取カロリーを算出する。   In addition, the recipe acquisition unit 257 calculates the intake calories of the specific dish based on the acquired recipe of the specific dish. For example, in the image processing device 20, table data in which food and food intake calories are associated in advance is stored in the storage unit 28. FIG. 4 shows an example of the table data stored in the storage unit 28. The recipe acquisition unit 257 refers to the table data stored in the storage unit 28, acquires the intake calories of each of the specific ingredients included in the recipe of the specific dish, and adds them up, thereby adding the recipe of the specific dish. Calculate calorie intake.

なお、記憶部28に替えて、予め定められた外部の情報処理装置の備える記憶部に、前記テーブルデータが記憶されていてもよい。この場合、レシピ取得部257は、前記外部の情報処理装置と通信を行うことで、前記外部の情報処理装置から前記特定料理のレシピに含まれる前記特定食材各々の摂取カロリーを取得する。   Instead of the storage unit 28, the table data may be stored in a storage unit provided in a predetermined external information processing apparatus. In this case, the recipe acquisition unit 257 acquires the calorie intake of each of the specific ingredients included in the recipe of the specific dish from the external information processing apparatus by communicating with the external information processing apparatus.

ここで、レシピ取得部257は、判定処理部256によってユーザーが疲労していると判定された場合には、複数の前記チラシ各々の画像データのうち、前記特定店舗までの距離が最も近い前記チラシの画像データから抽出される前記食材情報に基づいて、前記レシピ情報を取得可能である。   Here, when the determination processing unit 256 determines that the user is tired, the recipe acquisition unit 257 has the closest distance to the specific store among the image data of each of the plurality of leaflets. The recipe information can be acquired based on the food material information extracted from the image data.

例えば、レシピ取得部257は、判定処理部256によってユーザーが疲労していると判定された場合に、前記レシピ情報の取得方法を変更するか否かの選択に用いられる選択操作画面を操作表示部26に表示させる。そして、レシピ取得部257は、前記選択操作画面におけるユーザー操作に応じて、前記特定店舗までの距離が最も近い前記チラシの画像データから抽出される前記食材情報に基づいて、前記レシピ情報を取得する。   For example, when the determination processing unit 256 determines that the user is tired, the recipe acquisition unit 257 displays a selection operation screen used for selecting whether or not to change the recipe information acquisition method. 26 is displayed. And the recipe acquisition part 257 acquires the said recipe information based on the said foodstuff information extracted from the image data of the said leaflet with the shortest distance to the said specific store according to user operation in the said selection operation screen. .

例えば、レシピ取得部257は、店舗抽出部252によって抽出された前記店舗情報、及び記憶部28に記憶されている画像処理装置20の位置情報に基づいて、前記特定店舗までの距離が最も近い前記チラシの画像データを特定する。そして、レシピ取得部257は、特定された前記チラシの画像データから抽出された前記食材情報に基づいて、前記特定料理のレシピ、前記特定料理のコスト、及び前記特定料理の摂取カロリーを取得する。なお、レシピ取得部257は、携帯端末10から、携帯端末10においてGPS機能により取得される位置情報を取得してもよい。   For example, the recipe acquisition unit 257 has the closest distance to the specific store based on the store information extracted by the store extraction unit 252 and the position information of the image processing device 20 stored in the storage unit 28. Identify flyer image data. And the recipe acquisition part 257 acquires the recipe of the said specific dish, the cost of the said specific dish, and the calorie intake of the said specific dish based on the said foodstuff information extracted from the image data of the specified said leaflet. Note that the recipe acquisition unit 257 may acquire position information acquired from the mobile terminal 10 by the GPS function in the mobile terminal 10.

第2設定処理部258は、ユーザー操作に応じて前記特定料理のレシピを絞り込む第2絞込条件を設定する。例えば、前記第2絞込条件には、前記特定料理の種類が予め指定された種類に該当すること、前記特定料理のコストが予め指定された予算以下であること、前記特定料理の摂取カロリーが予め指定されたカロリー以下であること、前記特定料理に含まれる前記特定食材の数が予め指定された数以上であること、などが含まれる。   The second setting processing unit 258 sets a second narrowing condition for narrowing down the recipe for the specific dish in accordance with a user operation. For example, in the second narrowing-down condition, the type of the specific dish corresponds to a predesignated type, the cost of the specific dish is equal to or less than a predesignated budget, and the calorie intake of the specific dish is It is included that the number of the specific ingredients included in the specific dish is equal to or greater than the number specified in advance.

例えば、第2設定処理部258は、前記設定操作画面におけるユーザー操作に応じて、前記第2絞込条件を設定する。なお、前記第2絞込条件は、前記第1絞込条件と同様に、画像処理装置20にログインするユーザーごとに予め画像処理装置20に登録されていてもよい。   For example, the second setting processing unit 258 sets the second narrowing condition according to a user operation on the setting operation screen. The second narrowing condition may be registered in advance in the image processing apparatus 20 for each user who logs in to the image processing apparatus 20, similarly to the first narrowing condition.

出力処理部259は、レシピ取得部257によって取得された前記レシピ情報を出力する。   The output processing unit 259 outputs the recipe information acquired by the recipe acquisition unit 257.

具体的に、出力処理部259は、第2設定処理部258により設定された前記第2絞込条件を充足する前記特定料理のレシピに関する前記レシピ情報を出力する。例えば、出力処理部259は、前記第2絞込条件を充足する前記特定料理のレシピに関する複数の前記レシピ情報のうち、前記特定料理のレシピに含まれる前記特定食材の数が最も多い前記レシピ情報を出力する。なお、出力処理部259は、前記特定料理のコストが最も安い前記レシピ情報を出力してもよい。また、出力処理部259は、前記特定料理のレシピに含まれる前記特定食材の数が多い順で列挙された複数の前記レシピ情報を出力してもよい。また、出力処理部259は、前記特定料理のコストが安い順で列挙された複数の前記レシピ情報を出力してもよい。   Specifically, the output processing unit 259 outputs the recipe information related to the recipe of the specific dish that satisfies the second narrowing-down condition set by the second setting processing unit 258. For example, the output processing unit 259 includes the recipe information having the largest number of the specific ingredients included in the recipe of the specific dish among the plurality of recipe information regarding the recipe of the specific dish that satisfies the second narrowing condition. Is output. The output processing unit 259 may output the recipe information with the lowest cost of the specific dish. Further, the output processing unit 259 may output a plurality of the recipe information listed in descending order of the number of the specific ingredients included in the recipe of the specific dish. In addition, the output processing unit 259 may output a plurality of the recipe information listed in the order of low cost of the specific dish.

なお、前記特定料理のレシピが前記第2絞込条件を充足するか否かの判断は、レシピ取得部257が行ってもよい。即ち、レシピ取得部257は、前記第2絞込条件を充足する前記特定料理のレシピに関する前記レシピ情報を取得してもよい。   The recipe acquisition unit 257 may determine whether or not the recipe for the specific dish satisfies the second screening condition. That is, the recipe acquisition unit 257 may acquire the recipe information regarding the recipe of the specific dish that satisfies the second narrowing-down condition.

例えば、出力処理部259は、操作表示部26におけるユーザー操作に応じて、前記レシピ情報を印刷、又は携帯端末10に送信して出力する。   For example, the output processing unit 259 prints or transmits the recipe information to the portable terminal 10 in accordance with a user operation on the operation display unit 26.

[レシピ出力処理]
以下、図3を参照しつつ、画像処理装置20において制御部25により実行されるレシピ出力処理の手順の一例と共に、本発明の画像処理方法の手順の一例について説明する。ここで、ステップS11、S12・・・は、制御部25により実行される処理手順(ステップ)の番号を表している。なお、制御部25は、操作表示部26に対して前記レシピ出力処理の実行を指示する旨のユーザー操作が行われた場合に、前記レシピ出力処理を実行する。
[Recipe output processing]
Hereinafter, an example of the procedure of the image processing method of the present invention will be described together with an example of the procedure of the recipe output process executed by the control unit 25 in the image processing apparatus 20 with reference to FIG. Here, steps S11, S12,... Represent the numbers of processing procedures (steps) executed by the control unit 25. The control unit 25 executes the recipe output process when a user operation for instructing the operation display unit 26 to execute the recipe output process is performed.

<ステップS11>
まず、ステップS11において、制御部25は、前記チラシの画像データを取得する。ここで、ステップS11の処理は、制御部25の画像取得部251により実行される。
<Step S11>
First, in step S11, the control unit 25 acquires image data of the leaflet. Here, the process of step S <b> 11 is executed by the image acquisition unit 251 of the control unit 25.

例えば、制御部25は、画像読取部22を用いて前記チラシの原稿から前記チラシの画像データを取得する。具体的に、制御部25は、ADF21の前記原稿セット部に前記チラシの原稿が載置されている場合には、ADF21及び画像読取部22を用いて、前記原稿セット部に載置された前記チラシの原稿から前記チラシの画像データを読み取る。また、制御部25は、画像読取部22の前記原稿台に前記チラシの原稿が載置されている場合には、画像読取部22を用いて、前記原稿台に載置された前記チラシの原稿から前記チラシの画像データを読み取る。   For example, the control unit 25 uses the image reading unit 22 to acquire the image data of the leaflet from the leaflet manuscript. Specifically, when the leaflet document is placed on the document setting unit of the ADF 21, the control unit 25 uses the ADF 21 and the image reading unit 22 to set the document placed on the document setting unit. The image data of the leaflet is read from the leaflet manuscript. In addition, when the flyer document is placed on the document table of the image reading unit 22, the control unit 25 uses the image reading unit 22 to document the flyer document placed on the document table. Read the image data of the leaflet.

また、制御部25は、携帯端末10などの外部の情報処理装置から送信される前記チラシの画像データを受信することで、前記チラシの画像データを取得してもよい。また、制御部25は、画像読取部22によって読み取られて、又は外部の情報処理装置から送信されて記憶部28に格納された前記チラシの画像データを読み出すことで、前記チラシの画像データを取得してもよい。   Further, the control unit 25 may acquire the image data of the leaflet by receiving the image data of the leaflet transmitted from an external information processing apparatus such as the mobile terminal 10. In addition, the control unit 25 acquires the image data of the flyer by reading the image data of the leaflet that is read by the image reading unit 22 or transmitted from an external information processing apparatus and stored in the storage unit 28. May be.

<ステップS12>
ステップS12において、制御部25は、ステップS11で取得された前記チラシの画像データに基づいて、前記店舗情報を抽出する。ここで、ステップS12の処理は、制御部25の店舗抽出部252により実行される。なお、ステップS12の処理は省略されてもよい。
<Step S12>
In step S12, the control unit 25 extracts the store information based on the image data of the leaflet acquired in step S11. Here, the process of step S <b> 12 is executed by the store extraction unit 252 of the control unit 25. Note that the process of step S12 may be omitted.

例えば、制御部25は、ステップS11で取得された前記チラシの画像データに基づいて前記OCR処理を実行する。そして、制御部25は、前記OCR処理の実行結果に基づいて、前記店舗情報を抽出する。また、制御部25は、ステップS11で複数枚の前記チラシ各々の画像データが取得された場合は、前記チラシ各々の前記店舗情報を抽出する。   For example, the control unit 25 executes the OCR process based on the image data of the leaflet acquired in step S11. And the control part 25 extracts the said shop information based on the execution result of the said OCR process. Moreover, the control part 25 extracts the said shop information of each said leaflet, when the image data of each of the said several leaflet is acquired by step S11.

<ステップS13>
ステップS13において、制御部25は、ステップS11で取得された前記チラシの画像データに基づいて、前記食材情報を抽出する。ここに、ステップS13の処理が、本発明における第1ステップの一例であって、制御部25の食材抽出部253により実行される。
<Step S13>
In step S13, the control part 25 extracts the said foodstuff information based on the image data of the said leaflet acquired in step S11. Here, the process of step S13 is an example of a first step in the present invention, and is executed by the food material extraction unit 253 of the control unit 25.

例えば、制御部25は、ステップS12で実行された前記OCR処理の実行結果に基づいて、前記チラシに掲載された複数の前記特定食材各々に関する前記食材情報を抽出する。また、制御部25は、ステップS11で複数枚の前記チラシ各々の画像データが取得された場合は、同一の前記チラシから抽出される前記店舗情報及び前記食材情報を互いに関連付ける。   For example, the control unit 25 extracts the food material information related to each of the plurality of specific food materials posted on the flyer based on the execution result of the OCR process executed in step S12. In addition, when the image data of each of the plurality of leaflets is acquired in step S11, the control unit 25 associates the store information and the food material information extracted from the same leaflet.

<ステップS14>
ステップS14において、制御部25は、操作表示部26に前記設定操作画面を表示させる。
<Step S14>
In step S <b> 14, the control unit 25 causes the operation display unit 26 to display the setting operation screen.

ここで、ステップS14で操作表示部26に表示される前記設定操作画面の一例を図5に示す。図5に示される設定操作画面G10には、メッセージ表示欄G11、第2絞込条件設定欄G12〜G15、第1絞込条件設定欄G16〜G18、出力方法設定欄G19、操作キーG20〜G21が含まれる。   An example of the setting operation screen displayed on the operation display unit 26 in step S14 is shown in FIG. The setting operation screen G10 shown in FIG. 5 includes a message display field G11, second narrowing condition setting fields G12 to G15, first narrowing condition setting fields G16 to G18, an output method setting field G19, and operation keys G20 to G21. Is included.

メッセージ表示欄G11には、ユーザーへのメッセージが表示される。第2絞込条件設定欄G12〜G15では、前記第2絞込条件を設定することが可能である。例えば、ユーザーは、設定操作画面G10の第2絞込条件設定欄G12にタッチ操作を行うことで、前記特定料理の種類を指定することが可能である。また、ユーザーは、設定操作画面G10の第2絞込条件設定欄G13にタッチ操作を行うことで、前記特定料理の予算を指定することが可能である。また、ユーザーは、設定操作画面G10の第2絞込条件設定欄G14にタッチ操作を行うことで、前記特定料理の摂取カロリーを指定することが可能である。また、ユーザーは、設定操作画面G10の第2絞込条件設定欄G15にタッチ操作を行うことで、前記特定料理に含まれる前記特定食材の数を指定することが可能である。   A message to the user is displayed in the message display field G11. In the second narrowing condition setting fields G12 to G15, the second narrowing condition can be set. For example, the user can designate the type of the specific dish by performing a touch operation on the second screening condition setting field G12 of the setting operation screen G10. Further, the user can designate the budget for the specific dish by performing a touch operation on the second narrowing-down condition setting field G13 on the setting operation screen G10. In addition, the user can designate the calorie intake of the specific dish by performing a touch operation on the second narrowing-down condition setting field G14 on the setting operation screen G10. In addition, the user can specify the number of the specific ingredients included in the specific dish by performing a touch operation on the second narrowing condition setting field G15 of the setting operation screen G10.

第1絞込条件設定欄G16〜G18では、前記第1絞込条件を設定することが可能である。例えば、ユーザーは、設定操作画面G10の第1絞込条件設定欄G16にタッチ操作を行うことで、前記特定食材の産地を指定することが可能である。また、ユーザーは、設定操作画面G10の第1絞込条件設定欄G17にタッチ操作を行うことで、除外される前記特定食材を指定することが可能である。また、ユーザーは、設定操作画面G10の第1絞込条件設定欄G18にタッチ操作を行うことで、前記特定店舗までの距離を指定することが可能である。   In the first narrowing condition setting fields G16 to G18, the first narrowing condition can be set. For example, the user can specify the production area of the specific food by performing a touch operation on the first narrowing condition setting field G16 of the setting operation screen G10. Further, the user can specify the specific food to be excluded by performing a touch operation on the first narrowing-down condition setting field G17 on the setting operation screen G10. Further, the user can specify the distance to the specific store by performing a touch operation on the first narrowing-down condition setting field G18 on the setting operation screen G10.

出力方法設定欄G19では、前記レシピ情報の出力方法を設定することが可能である。例えば、ユーザーは、設定操作画面G10の出力方法設定欄G19にタッチ操作を行うことで、前記レシピ情報の出力方法を印刷、又は携帯端末10への送信に設定することが可能である。操作キーG20〜G21は、設定操作画面G10における設定内容の確定及び取り消しの操作に用いられる。   In the output method setting field G19, it is possible to set the output method of the recipe information. For example, the user can set the output method of the recipe information to printing or transmission to the mobile terminal 10 by performing a touch operation on the output method setting field G19 of the setting operation screen G10. The operation keys G20 to G21 are used for confirming and canceling the setting contents on the setting operation screen G10.

<ステップS15>
ステップS15において、制御部25は、ステップS14で表示された前記設定操作画面におけるユーザーの設定操作が終了したか否かを判断する。例えば、制御部25は、ユーザーによって設定操作画面G10の操作キーG20が操作された場合に、前記設定操作画面におけるユーザーの設定操作が終了したと判断する。
<Step S15>
In step S15, the control unit 25 determines whether the user's setting operation on the setting operation screen displayed in step S14 has been completed. For example, when the operation key G20 on the setting operation screen G10 is operated by the user, the control unit 25 determines that the user's setting operation on the setting operation screen has ended.

ここで、制御部25は、前記設定操作画面におけるユーザーの設定操作が終了したと判断すると(S15のYes側)、処理をステップS16に移行させる。また、前記設定操作画面におけるユーザーの設定操作が終了していなければ(S15のNo側)、制御部25は、ステップS15で前記設定操作画面におけるユーザーの設定操作の終了を待ち受ける。   Here, when the control unit 25 determines that the user's setting operation on the setting operation screen is completed (Yes in S15), the control unit 25 shifts the process to step S16. If the user's setting operation on the setting operation screen has not ended (No in S15), the control unit 25 waits for the user's setting operation on the setting operation screen to end in step S15.

<ステップS16>
ステップS16において、制御部25は、前記設定操作画面におけるユーザー操作に応じて、前記第1絞込条件を設定する。ここで、ステップS14〜ステップS16の処理は、制御部25の第1設定処理部254により実行される。
<Step S16>
In step S <b> 16, the control unit 25 sets the first narrowing condition according to a user operation on the setting operation screen. Here, the process of step S14-step S16 is performed by the 1st setting process part 254 of the control part 25. FIG.

例えば、制御部25は、設定操作画面G10の操作キーG20の操作時における第1絞込条件設定欄G16〜G18の入力内容に応じて、前記第1絞込条件を設定する。これにより、ユーザーが所望する条件を満たす前記特定食材を用いた前記特定料理のレシピに関する前記レシピ情報を出力することが可能となる。   For example, the control unit 25 sets the first narrowing condition according to the input contents of the first narrowing condition setting fields G16 to G18 when the operation key G20 on the setting operation screen G10 is operated. Thereby, it becomes possible to output the recipe information related to the recipe of the specific dish using the specific food that satisfies the condition desired by the user.

<ステップS17>
ステップS17において、制御部25は、前記設定操作画面におけるユーザー操作に応じて、前記第2絞込条件を設定する。ここで、ステップS17の処理は、制御部25の第2設定処理部258により実行される。
<Step S17>
In step S <b> 17, the control unit 25 sets the second narrowing condition in accordance with a user operation on the setting operation screen. Here, the process of step S <b> 17 is executed by the second setting processing unit 258 of the control unit 25.

例えば、制御部25は、設定操作画面G10の操作キーG20の操作時における第2絞込条件設定欄G12〜G15の入力内容に応じて、前記第2絞込条件を設定する。これにより、ユーザーが所望する条件を満たす前記特定料理のレシピに関する前記レシピ情報を出力することが可能となる。   For example, the control unit 25 sets the second narrowing condition according to the input contents of the second narrowing condition setting fields G12 to G15 when the operation key G20 on the setting operation screen G10 is operated. Thereby, it becomes possible to output the recipe information relating to the recipe of the specific dish that satisfies the conditions desired by the user.

なお、前記第1絞込条件及び前記第2絞込条件は、画像処理装置20にログイン可能なユーザーごとに予め画像処理装置20に登録されていてもよい。この場合、ステップS14〜ステップS17の処理は省略されてもよい。   The first narrowing condition and the second narrowing condition may be registered in advance in the image processing apparatus 20 for each user who can log in to the image processing apparatus 20. In this case, the processing of step S14 to step S17 may be omitted.

<ステップS18>
ステップS18において、制御部25は、前記疲労情報を取得する。ここで、ステップS18の処理は、制御部25の疲労情報取得部255により実行される。
<Step S18>
In step S18, the control unit 25 acquires the fatigue information. Here, the process of step S <b> 18 is executed by the fatigue information acquisition unit 255 of the control unit 25.

例えば、制御部25は、ユーザーが画像処理装置20にログインしている場合には、ログイン中のユーザーに対応する携帯端末10から、前記健康情報及び前記スケジュール情報を取得する。また、制御部25は、ユーザーが画像処理装置20にログインしていない場合には、操作表示部26に前記認証画面を表示させる。そして、制御部25は、前記認証画面における前記認証操作によりユーザーが画像処理装置20にログインした場合に、ログインしたユーザーに対応する携帯端末10から前記健康情報及び前記スケジュール情報を取得する。   For example, when the user is logged in to the image processing apparatus 20, the control unit 25 acquires the health information and the schedule information from the mobile terminal 10 corresponding to the logged-in user. In addition, when the user is not logged in to the image processing apparatus 20, the control unit 25 displays the authentication screen on the operation display unit 26. Then, when a user logs in to the image processing apparatus 20 by the authentication operation on the authentication screen, the control unit 25 acquires the health information and the schedule information from the mobile terminal 10 corresponding to the logged-in user.

<ステップS19>
ステップS19において、制御部25は、ステップS18で取得された前記疲労情報に基づいて、ユーザーが疲労しているか否かを判定する。ここで、ステップS19の処理は、制御部25の判定処理部256により実行される。
<Step S19>
In step S19, the control unit 25 determines whether or not the user is tired based on the fatigue information acquired in step S18. Here, the process of step S <b> 19 is executed by the determination processing unit 256 of the control unit 25.

例えば、制御部25は、前記疲労情報に含まれる歩数が前記基準歩数を超える場合に、ユーザーが疲労していると判定する。また、制御部25は、前記疲労情報に含まれる前記起床時刻に検出された脈拍が前記基準脈拍数以上である場合に、ユーザーが疲労していると判定する。また、制御部25は、前記疲労情報に含まれる前記睡眠時間が前記第1基準時間未満である場合に、ユーザーが疲労していると判定する。また、制御部25は、前記疲労情報に含まれる視線移動量が前記基準移動量を超える場合に、ユーザーが疲労していると判定する。また、制御部25は、前記疲労情報に含まれる前記スケジュール情報によって示されるユーザーの自由時間が前記第2基準時間未満である場合に、ユーザーが疲労していると判定する。   For example, the control unit 25 determines that the user is tired when the number of steps included in the fatigue information exceeds the reference number of steps. The control unit 25 determines that the user is tired when the pulse detected at the wake-up time included in the fatigue information is equal to or higher than the reference pulse rate. The control unit 25 determines that the user is tired when the sleep time included in the fatigue information is less than the first reference time. The control unit 25 determines that the user is tired when the line-of-sight movement amount included in the fatigue information exceeds the reference movement amount. The control unit 25 determines that the user is tired when the user's free time indicated by the schedule information included in the fatigue information is less than the second reference time.

<ステップS20>
ステップS20において、制御部25は、ステップS19でユーザーが疲労していると判定されたか否かを判断する。
<Step S20>
In step S20, the control unit 25 determines whether or not it is determined in step S19 that the user is tired.

ここで、制御部25は、ステップS19でユーザーが疲労していると判定されたと判断すると(S20のYes側)、処理をステップS21に移行させる。また、ステップS19でユーザーが疲労していると判定されていなければ(S20のNo側)、制御部25は、処理をステップS201に移行させる。   If the control unit 25 determines that the user is determined to be tired in step S19 (Yes side of S20), the control unit 25 shifts the process to step S21. If it is not determined in step S19 that the user is tired (No side in S20), the control unit 25 shifts the process to step S201.

<ステップS201>
ステップS201において、制御部25は、ステップS13で抽出された前記食材情報に基づいて、前記レシピ情報を取得する。ここに、ステップS201の処理が、本発明における第2ステップの一例であって、制御部25のレシピ取得部257により実行される。
<Step S201>
In step S201, the control unit 25 acquires the recipe information based on the food material information extracted in step S13. Here, the process of step S201 is an example of the second step in the present invention, and is executed by the recipe acquisition unit 257 of the control unit 25.

具体的に、制御部25は、ステップS13で抽出された前記食材情報のうち、ステップS16で設定された前記第1絞込条件を充足する前記特定食材に関する前記食材情報に基づいて、前記レシピ情報を取得する。例えば、制御部25は、前記第1絞込条件を充足する前記特定食材に関する前記食材情報に基づいて、記憶部28に記憶されている前記データベースから、前記第1絞込条件を充足する前記特定食材を用いた前記特定料理のレシピを取得する。   Specifically, the control unit 25 determines the recipe information based on the ingredient information related to the specific ingredient satisfying the first narrowing condition set in step S16 among the ingredient information extracted in step S13. To get. For example, the control unit 25, based on the food information on the specific food that satisfies the first narrowing condition, from the database stored in the storage unit 28, the specific that satisfies the first narrowing condition The recipe for the specific dish using ingredients is acquired.

また、制御部25は、取得された前記特定料理のレシピ、及び前記特定料理のレシピに含まれる前記特定食材の前記食材情報に基づいて、前記特定料理のコストを算出する。また、制御部25は、取得された前記特定料理のレシピに基づいて、前記特定料理の摂取カロリーを算出する。例えば、制御部25は、記憶部28に記憶されている前記テーブルデータを参照して、前記特定料理のレシピに含まれる前記特定食材各々の摂取カロリーを取得して合算することで、前記特定料理の摂取カロリーを算出する。   Further, the control unit 25 calculates the cost of the specific dish based on the acquired recipe of the specific dish and the food information of the specific food included in the recipe of the specific dish. Moreover, the control part 25 calculates the intake calories of the said specific dish based on the acquired recipe of the said specific dish. For example, the control unit 25 refers to the table data stored in the storage unit 28, acquires the calorie intake of each of the specific ingredients included in the recipe of the specific dish, and adds up the specific dish. Calorie intake is calculated.

<ステップS21>
ステップS21において、制御部25は、操作表示部26に前記選択操作画面を表示させる。
<Step S21>
In step S <b> 21, the control unit 25 displays the selection operation screen on the operation display unit 26.

ここで、ステップS21で操作表示部26に表示される前記選択操作画面の一例を図6に示す。図6に示される選択操作画面G30には、メッセージ表示欄G31、及び操作キーG32〜G33が含まれる。   An example of the selection operation screen displayed on the operation display unit 26 in step S21 is shown in FIG. The selection operation screen G30 shown in FIG. 6 includes a message display field G31 and operation keys G32 to G33.

メッセージ表示欄G31には、ユーザーへのメッセージが表示される。操作キーG32〜G33は、前記レシピ情報の取得方法を変更するか否かの選択の操作に用いられる。   A message to the user is displayed in the message display field G31. The operation keys G32 to G33 are used for selecting whether to change the recipe information acquisition method.

<ステップS22>
ステップS22において、制御部25は、前記レシピ情報の取得方法の変更を選択する操作が行われたか否かを判断する。例えば、制御部25は、ユーザーによって選択操作画面G30の操作キーG32が操作された場合に、前記レシピ情報の取得方法の変更を選択する操作が行われたと判断する。一方、制御部25は、ユーザーによって選択操作画面G30の操作キーG33が操作された場合には、前記レシピ情報の取得方法の変更を選択する操作が行われなかったと判断する。
<Step S22>
In step S <b> 22, the control unit 25 determines whether an operation for selecting a change in the recipe information acquisition method has been performed. For example, when the operation key G32 on the selection operation screen G30 is operated by the user, the control unit 25 determines that an operation for selecting a change in the recipe information acquisition method has been performed. On the other hand, when the operation key G33 on the selection operation screen G30 is operated by the user, the control unit 25 determines that an operation for selecting a change in the recipe information acquisition method has not been performed.

ここで、制御部25は、前記レシピ情報の取得方法の変更を選択する操作が行われたと判断すると(S22のYes側)、処理をステップS23に移行させる。また、前記レシピ情報の取得方法の変更を選択する操作が行われなければ(S22のNo側)、制御部25は、処理をステップS201に移行させる。   Here, if the control part 25 judges that operation which selects the change of the acquisition method of the said recipe information was performed (Yes side of S22), it will transfer a process to step S23. Moreover, if operation which selects the change of the acquisition method of the said recipe information is not performed (No side of S22), the control part 25 will transfer a process to step S201.

<ステップS23>
ステップS23において、制御部25は、ステップS13で抽出された前記食材情報のうち、前記特定店舗までの距離が最も近い前記チラシの画像データから抽出される前記食材情報に基づいて、前記レシピ情報を取得する。ここで、ステップS23の処理は、レシピ取得部257により実行される。
<Step S23>
In step S23, the control unit 25 determines the recipe information based on the ingredient information extracted from the image data of the flyer that is closest to the specific store among the ingredient information extracted in step S13. get. Here, the process of step S <b> 23 is executed by the recipe acquisition unit 257.

例えば、制御部25は、ステップS12で抽出された前記店舗情報、及び記憶部28に記憶されている画像処理装置20の位置情報に基づいて、前記特定店舗までの距離が最も近い前記チラシの画像データを特定する。そして、制御部25は、特定された前記チラシの画像データからステップS13で抽出された前記食材情報に基づいて、前記特定料理のレシピ、前記特定料理のコスト、及び前記特定料理の摂取カロリーを取得する。これにより、ユーザーが疲労している場合に、ユーザーにおいて前記特定食材の調達にかかる負担の小さい前記レシピ情報を出力することが可能である。   For example, the control unit 25, based on the store information extracted in step S12 and the position information of the image processing device 20 stored in the storage unit 28, the image of the leaflet that is closest to the specific store. Identify the data. And the control part 25 acquires the recipe of the said specific cooking, the cost of the said specific cooking, and the calorie intake of the said specific cooking based on the said foodstuff information extracted in step S13 from the image data of the specified said flyer. To do. Thereby, when the user is tired, it is possible to output the recipe information with a small burden on the user to procure the specific food.

なお、ステップS18〜ステップS23の処理は省略されてもよい。この場合、制御部25は、ステップS17の処理の後にステップS201の処理を実行する。   Note that the processing of step S18 to step S23 may be omitted. In this case, the control unit 25 executes the process of step S201 after the process of step S17.

<ステップS24>
ステップS24において、制御部25は、ステップS201又はステップS23で取得された前記レシピ情報を出力する。ここに、ステップS24の処理が、本発明における第3ステップの一例であって、制御部25の出力処理部259により実行される。
<Step S24>
In step S24, the control unit 25 outputs the recipe information acquired in step S201 or step S23. Here, the process of step S24 is an example of the third step in the present invention, and is executed by the output processing unit 259 of the control unit 25.

具体的に、制御部25は、ステップS17で設定された前記第2絞込条件を充足する前記特定料理のレシピに関する前記レシピ情報を出力する。例えば、制御部25は、前記第2絞込条件を充足する前記特定料理のレシピに関する複数の前記レシピ情報のうち、前記特定料理のレシピに含まれる前記特定食材の数が最も多い前記レシピ情報を出力する。   Specifically, the control unit 25 outputs the recipe information related to the recipe of the specific dish that satisfies the second narrowing-down condition set in step S17. For example, the control unit 25 selects the recipe information having the largest number of the specific ingredients included in the recipe of the specific dish among the plurality of recipe information regarding the recipe of the specific dish that satisfies the second narrowing condition. Output.

例えば、制御部25は、設定操作画面G10の操作キーG20の操作時における出力方法設定欄G19の入力内容に応じて、前記レシピ情報を印刷、又は携帯端末10に送信して出力する。   For example, the control unit 25 prints or transmits the recipe information to the portable terminal 10 according to the input content of the output method setting field G19 when operating the operation key G20 on the setting operation screen G10.

このように、前記レシピ出力処理では、前記チラシの画像データに基づいて、前記チラシに掲載された前記特定食材に関する前記食材情報が抽出される。そして、抽出された前記食材情報に基づいて、前記特定食材を用いた前記特定料理のレシピに関する前記レシピ情報が取得されて出力される。これにより、料理のレシピを探すユーザーの手間を軽減することが可能である。   Thus, in the recipe output process, the food material information related to the specific food material posted on the flyer is extracted based on the image data of the flyer. And based on the extracted said ingredient information, the said recipe information regarding the recipe of the said specific dish using the said specific ingredient is acquired and output. Thereby, it is possible to reduce the trouble of the user who searches for a recipe for cooking.

なお、出力処理部259は、判定処理部256によってユーザーが疲労していると判定された場合に、予め設定された第3絞込条件を充足する前記レシピ情報を出力してもよい。例えば、前記第3絞込条件が、前記特定料理に予め定められた食材が含まれること、である場合には、ユーザーの疲労の回復に寄与する前記特定食材を用いた前記特定料理のレシピに関する前記レシピ情報を出力することが可能である。また、前記第3絞込条件が、前記特定料理のレシピに含まれる調理手順の数が予め定められた数以下であること、である場合には、ユーザーにおいて調理にかかる負担の小さい前記レシピ情報を出力することが可能である。   Note that the output processing unit 259 may output the recipe information that satisfies a preset third narrowing condition when the determination processing unit 256 determines that the user is tired. For example, when the third narrowing-down condition is that the predetermined food includes a predetermined ingredient, the recipe for the specific dish using the specific ingredient that contributes to recovery of user fatigue The recipe information can be output. In addition, when the third narrowing-down condition is that the number of cooking procedures included in the recipe of the specific dish is equal to or less than a predetermined number, the recipe information with a small burden on cooking by the user Can be output.

また、レシピ取得部257は、判定処理部256によってユーザーが疲労していると判定された場合には、前記第1絞込条件における前記特定店舗までの距離の指定を予め設定された距離に変更してもよい。この場合にも、ユーザーにおいて前記特定食材の調達にかかる負担の小さい前記レシピ情報を出力することが可能である。   In addition, when the determination processing unit 256 determines that the user is tired, the recipe acquisition unit 257 changes the designation of the distance to the specific store in the first narrowing condition to a preset distance. May be. Also in this case, it is possible for the user to output the recipe information with a small burden on procurement of the specific food.

また、携帯端末10の制御部11が、画像取得部251、店舗抽出部252、食材抽出部253、第1設定処理部254、疲労情報取得部255、判定処理部256、レシピ取得部257、第2設定処理部258、及び出力処理部259を備えていてもよい。この場合、携帯端末10が本発明における画像処理装置の他の一例である。   In addition, the control unit 11 of the mobile terminal 10 includes an image acquisition unit 251, a store extraction unit 252, a food material extraction unit 253, a first setting processing unit 254, a fatigue information acquisition unit 255, a determination processing unit 256, a recipe acquisition unit 257, a first A two setting processing unit 258 and an output processing unit 259 may be provided. In this case, the portable terminal 10 is another example of the image processing apparatus according to the present invention.

10:携帯端末
11:制御部
111:取得処理部
12:操作表示部
13:通信部
14:記憶部
20:画像処理装置
21:ADF
22:画像読取部
23:画像形成部
24:給紙部
25:制御部
250:認証処理部
251:画像取得部
252:店舗抽出部
253:食材抽出部
254:第1設定処理部
255:疲労情報取得部
256:判定処理部
257:レシピ取得部
258:第2設定処理部
259:出力処理部
26:操作表示部
27:通信部
28:記憶部
100:画像処理システム
10: Mobile terminal 11: Control unit 111: Acquisition processing unit 12: Operation display unit 13: Communication unit 14: Storage unit 20: Image processing device 21: ADF
22: Image reading unit 23: Image forming unit 24: Paper feeding unit 25: Control unit 250: Authentication processing unit 251: Image acquisition unit 252: Store extraction unit 253: Food extraction unit 254: First setting processing unit 255: Fatigue information Acquisition unit 256: Determination processing unit 257: Recipe acquisition unit 258: Second setting processing unit 259: Output processing unit 26: Operation display unit 27: Communication unit 28: Storage unit 100: Image processing system

Claims (6)

食材に関する情報が掲載されるチラシの画像データに基づいて、前記チラシに掲載された特定食材に関する食材情報を抽出する食材抽出部と、
前記食材抽出部によって抽出された前記食材情報に基づいて、前記特定食材を用いた特定料理のレシピに関するレシピ情報を取得するレシピ取得部と、
前記レシピ取得部によって取得された前記レシピ情報を出力する出力処理部と、
前記チラシの画像データに基づいて、前記チラシを発行した特定店舗の位置情報を抽出する位置情報抽出部と、
ユーザーの疲労状態に関する疲労情報を取得する疲労情報取得部と、
前記疲労情報取得部によって取得された前記疲労情報に基づいて、前記ユーザーが疲労しているか否かを判定する判定処理部と、
を備え、
前記レシピ取得部は、前記判定処理部によって前記ユーザーが疲労していると判定された場合には、複数の前記チラシ各々の画像データのうち前記特定店舗までの距離が最も近い前記チラシの画像データから抽出される前記食材情報に基づいて、前記レシピ情報を取得可能である画像処理装置。
Based on the image data of the leaflet on which information on the ingredients is posted, an ingredient extraction unit that extracts the ingredient information on the specific ingredients posted on the flyer,
A recipe acquisition unit that acquires recipe information related to a recipe of a specific dish using the specific food, based on the food information extracted by the food extraction unit;
An output processing unit for outputting the recipe information acquired by the recipe acquisition unit;
Based on the image data of the leaflet, a location information extraction unit that extracts location information of a specific store that issued the leaflet;
A fatigue information acquisition unit for acquiring fatigue information on the user's fatigue state;
A determination processing unit that determines whether or not the user is fatigued based on the fatigue information acquired by the fatigue information acquisition unit;
With
If the recipe acquisition unit determines that the user is tired by the determination processing unit, the image data of the leaflet that is closest to the specific store among the image data of each of the plurality of leaflets An image processing apparatus capable of acquiring the recipe information based on the food material information extracted from the food.
ユーザー操作に応じて前記特定食材を絞り込む第1絞込条件を設定する第1設定処理部を更に備え、
前記レシピ取得部は、前記第1絞込条件を充足する前記特定食材に関する前記食材情報に基づいて、前記レシピ情報を取得する請求項1に記載の画像処理装置。
A first setting processing unit for setting a first narrowing condition for narrowing down the specific food according to a user operation;
The image processing apparatus according to claim 1, wherein the recipe acquisition unit acquires the recipe information based on the food material information related to the specific food material that satisfies the first narrowing-down condition.
ユーザー操作に応じて前記特定料理のレシピを絞り込む第2絞込条件を設定する第2設定処理部を更に備え、
前記出力処理部は、前記第2絞込条件を充足する前記特定料理のレシピに関する前記レシピ情報を出力する請求項1又は2に記載の画像処理装置。
A second setting processing unit configured to set a second narrowing condition for narrowing down the recipe of the specific dish in accordance with a user operation;
The image processing apparatus according to claim 1, wherein the output processing unit outputs the recipe information related to a recipe of the specific dish that satisfies the second narrowing-down condition.
前記出力処理部は、前記判定処理部によって前記ユーザーが疲労していると判定された場合には、予め設定された第3絞込条件を充足する前記レシピ情報を出力する請求項1〜3のいずれかに記載の画像処理装置。   The output processing unit outputs the recipe information that satisfies a preset third narrowing condition when the determination processing unit determines that the user is tired. The image processing apparatus according to any one of the above. 画像データに基づいて画像を形成可能な画像形成部を更に備え、
前記出力処理部は、前記レシピ情報を印刷して出力可能である請求項1〜4のいずれかに記載の画像処理装置。
An image forming unit capable of forming an image based on the image data;
The image processing apparatus according to claim 1, wherein the output processing unit is capable of printing and outputting the recipe information.
画像処理装置に搭載されるプロセッサーにより実行される画像処理方法であって、
食材に関する情報が掲載されるチラシの画像データに基づいて、前記チラシに掲載された特定食材に関する食材情報を抽出する第1ステップと、
前記第1ステップによって抽出された前記食材情報に基づいて、前記特定食材を用いた特定料理のレシピに関するレシピ情報を取得する第2ステップと、
前記第2ステップによって取得された前記レシピ情報を出力する第3ステップと、
前記チラシの画像データに基づいて、前記チラシを発行した特定店舗の位置情報を抽出する第4ステップと、
ユーザーの疲労状態に関する疲労情報を取得する第5ステップと、
前記第5ステップによって取得された前記疲労情報に基づいて、前記ユーザーが疲労しているか否かを判定する第6ステップと、
を含み、
前記第2ステップでは、前記第6ステップによって前記ユーザーが疲労していると判定された場合には、複数の前記チラシ各々の画像データのうち前記特定店舗までの距離が最も近い前記チラシの画像データから抽出される前記食材情報に基づいて、前記レシピ情報が取得可能である画像処理方法。
An image processing method executed by a processor mounted on an image processing apparatus,
Based on image data of a leaflet on which information on ingredients is posted, a first step of extracting ingredient information on specific ingredients posted on the flyer;
A second step of acquiring recipe information relating to a recipe of a specific dish using the specific ingredient based on the ingredient information extracted in the first step;
A third step of outputting the recipe information acquired in the second step;
A fourth step of extracting position information of a specific store that issued the leaflet based on the image data of the leaflet;
A fifth step of acquiring fatigue information about the user's fatigue state;
A sixth step of determining whether or not the user is fatigued based on the fatigue information acquired in the fifth step;
Including
In the second step, when it is determined in the sixth step that the user is tired, the image data of the leaflet that is closest to the specific store among the image data of each of the plurality of leaflets. An image processing method in which the recipe information can be acquired based on the food material information extracted from the food.
JP2016073042A 2016-03-31 2016-03-31 Image processing apparatus and image processing method Expired - Fee Related JP6572815B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016073042A JP6572815B2 (en) 2016-03-31 2016-03-31 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016073042A JP6572815B2 (en) 2016-03-31 2016-03-31 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2017182704A JP2017182704A (en) 2017-10-05
JP6572815B2 true JP6572815B2 (en) 2019-09-11

Family

ID=60006232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016073042A Expired - Fee Related JP6572815B2 (en) 2016-03-31 2016-03-31 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6572815B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207819A (en) * 2001-01-10 2002-07-26 Koujiro Omoto Menu providing system
JP2005157985A (en) * 2003-11-28 2005-06-16 Victor Co Of Japan Ltd Foodstuff providing system
JP2004227602A (en) * 2004-03-31 2004-08-12 Dentsu Inc Recipe providing system and method therefor
JP5471411B2 (en) * 2009-12-18 2014-04-16 凸版印刷株式会社 Electronic leaflet search device and electronic leaflet search system
JP2011100488A (en) * 2011-01-20 2011-05-19 National Agriculture & Food Research Organization Agricultural/livestock/marine product material set order reception device, agricultural/livestock/marine product material set order reception method and agricultural/livestock/marine product material set order reception program
JP6327044B2 (en) * 2014-07-28 2018-05-23 京セラドキュメントソリューションズ株式会社 Purchase support apparatus and purchase support method

Also Published As

Publication number Publication date
JP2017182704A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP4670903B2 (en) Image processing system, image processing apparatus control method, and image processing apparatus control program
JP6358173B2 (en) Image forming system
JP6750265B2 (en) Image processing device, image processing system and program
JP2007142912A (en) Operation panel and customizing system thereof
JP2009054005A (en) Image forming system, image forming apparatus, and image forming method
JP6677103B2 (en) Information processing apparatus, information processing system and program
US10009490B2 (en) Image forming system, image forming apparatus, and program
JP4229100B2 (en) Image processing device
JP5365654B2 (en) Image forming apparatus, setting method, and setting program
JP5644751B2 (en) Image forming apparatus and control program for image forming apparatus
JP7164031B2 (en) image forming system
US10341525B2 (en) Image forming system, communication terminal, and non-transitory computer-readable storage medium
JP6572815B2 (en) Image processing apparatus and image processing method
JP5664811B1 (en) Image adjustment apparatus, image forming apparatus, management apparatus, image adjustment system, and program
JP2016009901A (en) Compound machine and display control method
JP2015184698A (en) Electronic instrument and operation support program
JP6696269B2 (en) Information processing device and information processing method
JP5201222B2 (en) Extension function server, extension function system, method and control program for controlling extension function server
JP6973275B2 (en) Image forming device and display device
JP7035835B2 (en) Biometric controls, biometric control methods, and computer programs
JP2018173737A (en) Information processing unit, information processing system and information processing method
JP7456103B2 (en) Database system, database system control program, and database system control method
JP2006252002A (en) Image processing system
JP2017117052A (en) Information processing device, image reading device, and program
JP6447539B2 (en) Electronics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190729

R150 Certificate of patent or registration of utility model

Ref document number: 6572815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees