JP2013120468A - Electronic device, information processing method, and program - Google Patents

Electronic device, information processing method, and program Download PDF

Info

Publication number
JP2013120468A
JP2013120468A JP2011267649A JP2011267649A JP2013120468A JP 2013120468 A JP2013120468 A JP 2013120468A JP 2011267649 A JP2011267649 A JP 2011267649A JP 2011267649 A JP2011267649 A JP 2011267649A JP 2013120468 A JP2013120468 A JP 2013120468A
Authority
JP
Japan
Prior art keywords
user
unit
cpu
display
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011267649A
Other languages
Japanese (ja)
Other versions
JP5929145B2 (en
Inventor
Kengo Mizui
研吾 水井
Hisashi Tai
寿 田井
Takafumi Toyoda
隆文 豊田
Mayuko Ito
繭子 伊藤
Arinori Kinouchi
有紀 木ノ内
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011267649A priority Critical patent/JP5929145B2/en
Priority to US14/354,738 priority patent/US20140330684A1/en
Priority to PCT/JP2012/006534 priority patent/WO2013084395A1/en
Priority to CN201410440390.4A priority patent/CN104156870A/en
Priority to IN3367DEN2014 priority patent/IN2014DN03367A/en
Priority to CN201280060250.3A priority patent/CN103975291A/en
Publication of JP2013120468A publication Critical patent/JP2013120468A/en
Application granted granted Critical
Publication of JP5929145B2 publication Critical patent/JP5929145B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an easy-to-use electronic device.SOLUTION: An electronic device comprises: a display unit that performs display; an illumination unit that can illuminate the display unit provided with a mirror; an imaging unit that images a user when the display unit does not perform display; and a detection unit that detects the state of the user when the display unit does not perform display. When the illumination unit does not illuminate the display unit, at least one of imaging by the imaging unit and detection by the detection unit is performed.

Description

本発明は、電子機器、情報処理方法およびプログラムに関する。   The present invention relates to an electronic device, an information processing method, and a program.

従来より、衣服を着た人を撮像して、色及び生地等を判別したり、襟及び袖等の形状を判別したりして、この衣服の種類を分類するシステムが提案されている(例えば、特許文献1)。
[先行技術文献]
[特許文献]
[特許文献1]特開2010-262425号公報
2. Description of the Related Art Conventionally, a system for classifying a type of clothes by imaging a person wearing clothes and discriminating colors, fabrics, etc., and discriminating shapes such as a collar and a sleeve has been proposed (for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP 2010-262425 A

しかしながら、従来のシステムでは、ユーザの衣服を撮像し分類するための設備を準備したり、カメラマンを必要としたりしなければならなく、使い勝手が悪かった。   However, in the conventional system, equipment for imaging and classifying the user's clothes must be prepared and a cameraman must be required, which is inconvenient.

本発明の第1の態様においては、表示を行なう表示部と、前記表示部が表示をしていない場合においてユーザを撮像する撮像部と、前記表示部が表示をしていない場合において前記ユーザの状態を検出する検出部と、を備える電子機器を提供する。   In the first aspect of the present invention, a display unit that performs display, an imaging unit that captures an image of the user when the display unit is not displaying, and the user of the user when the display unit is not displaying An electronic device including a detection unit that detects a state is provided.

本発明の第2の態様においては、情報を表示部に表示する表示ステップと、前記表示部が情報を表示していない場合においてユーザを撮像する撮像ステップと、前記表示部が表示をしていない場合において前記ユーザの状態を検出する状態検出ステップと、を備える情報処理方法を提供する。   In the second aspect of the present invention, a display step for displaying information on a display unit, an imaging step for imaging a user when the display unit does not display information, and the display unit not displaying And a state detection step of detecting the state of the user in some cases.

本発明の第3の態様においては、情報を表示部に表示する表示ステップと、前記表示部が情報を表示していない場合においてユーザを撮像する撮像ステップと、前記表示部が表示をしていない場合において前記ユーザの状態を検出する状態検出ステップと、をコンピュータに実行させるためのプログラムを提供する。   In the third aspect of the present invention, a display step for displaying information on a display unit, an imaging step for imaging a user when the display unit does not display information, and the display unit not displaying In some cases, there is provided a program for causing a computer to execute a state detecting step of detecting the state of the user.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る携帯端末10の外観構成を示す。The external appearance structure of the portable terminal 10 which concerns on this embodiment is shown. 本実施形態に係る携帯端末10の機能構成を示す。The functional structure of the portable terminal 10 which concerns on this embodiment is shown. 本実施形態に係る携帯端末10の制御フローを示す。The control flow of the portable terminal 10 which concerns on this embodiment is shown. 図3に続く制御フローを示す。The control flow following FIG. 3 is shown. 本実施形態の変形例に係る携帯端末10の外観構成を示す。The external appearance structure of the portable terminal 10 which concerns on the modification of this embodiment is shown. 変形例に係る携帯端末10の機能構成を示す。The function structure of the portable terminal 10 which concerns on a modification is shown. ユーザが保有する服装の画像データおよびログを記述したテーブルの一例を示す。An example of the table which described the image data and log of the clothes which a user holds is shown. 変形例に係る携帯端末10の制御フローを示す。The control flow of the portable terminal 10 which concerns on a modification is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る携帯端末10の外観構成を示す。携帯端末10は、ユーザにより携帯して用いられる情報機器である。携帯端末10は、電話機能、インターネット等に接続するための通信機能、および、プログラムを実行するためのデータ処理機能等を有する。携帯端末10は、一例として、長方形の主面を有する薄板状であり、片手の手のひらで把持することができる程度の大きさである。   FIG. 1 shows an external configuration of a mobile terminal 10 according to the present embodiment. The mobile terminal 10 is an information device that is carried and used by a user. The mobile terminal 10 has a telephone function, a communication function for connecting to the Internet, and a data processing function for executing a program. As an example, the mobile terminal 10 has a thin plate shape having a rectangular main surface, and is large enough to be held by the palm of one hand.

携帯端末10は、ディスプレイ12と、タッチパネル14と、内蔵カメラ16と、マイク18と、生体センサ20とを備える。ディスプレイ12は、当該携帯端末10の本体の主面側に設けられる。ディスプレイ12は、例えば当該主面の大半の領域(例えば90%)を占める大きさを有する。ディスプレイ12は、画像、各種情報およびボタン等の操作入力用画像を表示する。ディスプレイ12は、一例として、例えば液晶表示素子を用いたデバイスである。   The mobile terminal 10 includes a display 12, a touch panel 14, a built-in camera 16, a microphone 18, and a biosensor 20. The display 12 is provided on the main surface side of the main body of the mobile terminal 10. The display 12 has, for example, a size that occupies most of the main surface (for example, 90%). The display 12 displays images, various information, and operation input images such as buttons. The display 12 is, for example, a device using a liquid crystal display element.

タッチパネル14は、ユーザが触れたことに応じて情報を入力する。タッチパネル14は、ディスプレイ12上またはディスプレイ12内に組み込まれて設けられる。従って、タッチパネル14は、ユーザがディスプレイ12の表面をタッチすることにより、種々の情報を入力する。   The touch panel 14 inputs information according to the touch of the user. The touch panel 14 is provided on the display 12 or incorporated in the display 12. Accordingly, the touch panel 14 inputs various information when the user touches the surface of the display 12.

内蔵カメラ16は、撮像レンズおよび撮像素子を有し、被写体を撮像する。撮像素子は、一例として、CCDおよびCMOSデバイスである。また、撮像素子は、一例として、RGB3原色がベイヤ配列されたカラーフィルタを含み、各色のそれぞれに対応した色信号を出力する。   The built-in camera 16 has an imaging lens and an imaging element, and images a subject. An image pick-up element is a CCD and a CMOS device as an example. For example, the image sensor includes a color filter in which RGB three primary colors are arranged in a Bayer array, and outputs a color signal corresponding to each color.

内蔵カメラ16は、当該携帯端末10の本体におけるディスプレイ12が設けられる面(すなわち、主面)に設けられる。従って、内蔵カメラ16は、当該携帯端末10のタッチパネル14に対して操作しているユーザの顔および服装を撮像することができる。また、内蔵カメラ16は、撮像レンズとして広角レンズを有する場合には、操作しているユーザに加えて、ユーザの近傍にいる他のユーザ(例えばユーザの隣にいる人)の顔および服装を撮像することができる。   The built-in camera 16 is provided on the surface (that is, the main surface) on which the display 12 is provided in the main body of the mobile terminal 10. Therefore, the built-in camera 16 can capture the face and clothes of the user who is operating the touch panel 14 of the mobile terminal 10. In addition, when the built-in camera 16 has a wide-angle lens as an imaging lens, in addition to the user who is operating, the built-in camera 16 images the face and clothes of other users in the vicinity of the user (for example, people next to the user). can do.

また、携帯端末10は、内蔵カメラ16に加えて、主面とは反対側に他のカメラを更に備えてもよい。これにより、携帯端末10は、ユーザとは反対側に位置する被写体を撮像することができる。   In addition to the built-in camera 16, the mobile terminal 10 may further include another camera on the side opposite to the main surface. Thereby, the portable terminal 10 can image a subject located on the opposite side to the user.

マイク18は、当該携帯端末10の周囲の音声を入力する。マイク18は、一例として、当該携帯端末10の本体における主面の下方側に設けられる。これにより、マイク18は、ユーザの口と対向する位置に配置されて、ユーザが話す音声を入力しやすくなる。   The microphone 18 inputs sound around the mobile terminal 10. As an example, the microphone 18 is provided below the main surface of the main body of the mobile terminal 10. Thereby, the microphone 18 is arrange | positioned in the position facing a user's mouth, and it becomes easy to input the voice which a user speaks.

生体センサ20は、当該携帯端末10を保持するユーザの状態を取得する。生体センサ20は、一例として、ユーザの体温、血圧、脈拍および発汗量等を取得する。また、生体センサ20は、一例として、ユーザが当該生体センサ20を保持している力(例えば握力)を取得する。   The biometric sensor 20 acquires the state of the user holding the mobile terminal 10. The biometric sensor 20 acquires a user's body temperature, blood pressure, a pulse, a sweat amount, etc. as an example. Moreover, the biosensor 20 acquires the force (for example, grip force) which the user is holding the said biosensor 20 as an example.

生体センサ20は、一例として、特開2005−270543号公報に開示されているように、発光ダイオードによりユーザに向けて光を照射し、この光に応じてユーザから反射した光を受光することにより、脈拍を検出する。また、生体センサ20は、一例として、特開2005−270543号公報に開示されているような腕時計型の生体センサにより検出された情報を取得してもよい。   As an example, as disclosed in Japanese Patent Laid-Open No. 2005-270543, the biological sensor 20 emits light toward the user by a light emitting diode, and receives light reflected from the user in response to this light. , Detect the pulse. The biosensor 20 may acquire information detected by a wristwatch-type biosensor as disclosed in JP 2005-270543 A as an example.

また、生体センサ20は、携帯端末10の本体の長辺側の側部の2箇所に設けられた圧力センサを含んでもよい。このように配置された圧力センサは、ユーザが当該携帯端末10を保持したことおよび当該携帯端末10を保持する力を検出することができる。   In addition, the biosensor 20 may include pressure sensors provided at two locations on the long side of the main body of the mobile terminal 10. The pressure sensor arranged in this way can detect that the user holds the mobile terminal 10 and the force that holds the mobile terminal 10.

また、生体センサ20は、このような圧力センサによりユーザが当該携帯端末10を保持したことを検出してから、他の生体情報の取得を開始してもよい。また、携帯端末10は、電源がオンとなっている状態において、このような圧力センサによりユーザが当該携帯端末10を保持したことを検出してから、他の機能をオンとしてもよい。   In addition, the biological sensor 20 may start acquiring other biological information after detecting that the user holds the portable terminal 10 using such a pressure sensor. The mobile terminal 10 may turn on another function after detecting that the user holds the mobile terminal 10 with such a pressure sensor in a state where the power is on.

図2は、本実施形態に係る携帯端末10の機能構成を示す。携帯端末10は、図1に示した構成に加えて、CPU(Central Processing Unit)22と、GPS(Global Positioning System)モジュール24と、温度計26と、カレンダー部28と、不揮発性メモリ30と、音声解析部32と、画像分析部34と、通信部36とを備える。   FIG. 2 shows a functional configuration of the mobile terminal 10 according to the present embodiment. In addition to the configuration shown in FIG. 1, the mobile terminal 10 includes a CPU (Central Processing Unit) 22, a GPS (Global Positioning System) module 24, a thermometer 26, a calendar unit 28, a nonvolatile memory 30, An audio analysis unit 32, an image analysis unit 34, and a communication unit 36 are provided.

CPU22は、当該携帯端末10の全体を制御する。CPU22は、携帯端末10の全体を制御する。本実施の形態においては、CPU22は、ユーザの服装、ユーザのいる場所、ユーザが一緒にいる人およびユーザの言葉遣い等に応じてユーザに情報を提供するための制御を行う。   The CPU 22 controls the entire mobile terminal 10. The CPU 22 controls the entire mobile terminal 10. In the present embodiment, the CPU 22 performs control for providing information to the user according to the user's clothes, the place where the user is, the person with whom the user is, the user's wording, and the like.

GPSモジュール24は、当該携帯端末10の位置(例えば緯度および経度)を検出する。CPU22は、GPSモジュール24により検出されたユーザのいる位置の履歴を取得して、不揮発性メモリ30に記憶させる。これにより、CPU22は、ユーザの行動範囲を検出することができる。例えば、CPU22は、GPSモジュール24により検出された位置に基づき、平日の午前9時から午後6時までのユーザの行動範囲をビジネスでの行動範囲(ビジネス領域)として登録し、平日の午前9時から午後6時までのビジネス時間帯以外の時間帯における行動範囲をプライベートの行動範囲として登録する。   The GPS module 24 detects the position (for example, latitude and longitude) of the mobile terminal 10. The CPU 22 acquires a history of the position of the user detected by the GPS module 24 and stores it in the nonvolatile memory 30. Thereby, CPU22 can detect a user's action range. For example, based on the position detected by the GPS module 24, the CPU 22 registers the user's action range from 9:00 am to 6:00 pm on weekdays as a business action range (business area) on weekdays, and 9:00 am on weekdays. The action range in a time zone other than the business time zone from 10:00 to 16:00 is registered as a private action range.

温度計26は、携帯端末10の周囲の温度を検出する。なお、温度計26は、生体センサ20によるユーザの体温を検出する機能と兼用される構成であってもよい。   The thermometer 26 detects the ambient temperature of the mobile terminal 10. The thermometer 26 may also be configured to be used as a function of detecting the body temperature of the user by the biosensor 20.

カレンダー部28は、年、月、日、時刻といった時間情報を取得して、CPU22に出力する。さらに、カレンダー部28は、計時機能を有する。   The calendar unit 28 acquires time information such as year, month, date, and time, and outputs the time information to the CPU 22. Furthermore, the calendar unit 28 has a time measuring function.

不揮発性メモリ30は、フラッシュメモリ等の半導体メモリである。不揮発性メモリ30は、CPU22によって実行される当該携帯端末10を制御するためのプログラム、および、当該携帯端末10を制御するための各種パラメータ等を記憶する。さらに、不揮発性メモリ30は、ユーザのスケジュール、各種センサが検出した各種データ、ユーザが登録した顔データ、顔表情データ、および、服装に関するデータ等を記憶する。   The nonvolatile memory 30 is a semiconductor memory such as a flash memory. The nonvolatile memory 30 stores a program for controlling the mobile terminal 10 executed by the CPU 22, various parameters for controlling the mobile terminal 10, and the like. Further, the non-volatile memory 30 stores a user's schedule, various data detected by various sensors, facial data registered by the user, facial expression data, data on clothes, and the like.

このうち、顔表情データには、笑顔、泣き顔、怒り顔、驚き顔、眉間に皺を寄せている表情等を表すデータが含まれる。また、服装データには、各服装(スーツ、ジャケット、和服、ネクタイ、ポケットチーフ、コート等)を識別するための画像データが含まれる。また、服装データは、フォーマルな服装(例えばスーツ、ジャケット、和服、ネクタイ、ポケットチーフ、コート)と、カジュアルな服装(例えばポロシャツ、Tシャツ、ダウンジャケット)とを識別するための画像データであってもよい。また、それぞれの服装の特徴的な形状(例えば、襟部分の形状)を不揮発性メモリ30に記憶させておいてもよい。   Of these, the facial expression data includes data representing a smile, a crying face, an angry face, a surprised face, a facial expression with an eyebrows between the eyebrows, and the like. Also, the clothing data includes image data for identifying each clothing (suit, jacket, Japanese clothes, tie, pocket chief, coat, etc.). The clothes data is image data for identifying formal clothes (for example, suits, jackets, Japanese clothes, ties, pocket chiefs, coats) and casual clothes (for example, polo shirts, T-shirts, down jackets). Also good. Further, the characteristic shape of each clothing (for example, the shape of the collar portion) may be stored in the nonvolatile memory 30.

また、不揮発性メモリ30は、敬語の使い方および挨拶の表現等の言葉の表現例を記憶してもよい。本実施の形態においては、CPU22は、例えば、敬語を使わなければならない状況において、不揮発性メモリ30に記憶された敬語の表現を読み出してディスプレイ12に表示する。また、CPU22は、斎場等にいる状況においては、CPU22は、不揮発性メモリ30に記憶されたお悔やみの言葉の表現を読み出して、ディスプレイ12に表示する。   The non-volatile memory 30 may also store word expression examples such as honorific usage and greeting expressions. In the present embodiment, for example, in a situation where honorifics must be used, the CPU 22 reads the honorific expressions stored in the nonvolatile memory 30 and displays them on the display 12. In addition, when the CPU 22 is in a place such as Seika, the CPU 22 reads the expression of condolence words stored in the nonvolatile memory 30 and displays it on the display 12.

音声解析部32は、マイク18から取り込まれる音声の特徴を解析する。音声解析部32は、一例として、音声認識辞書を有し、識別した音声をテキストデータに変換してディスプレイ12に表示する。また、携帯端末10に音声認識プログラムがインストールされている場合には、音声解析部32は、CPU22によりこのような音声認識プログラムを実行した結果を取得して、音声認識をしてもよい。   The voice analysis unit 32 analyzes the characteristics of the voice captured from the microphone 18. For example, the voice analysis unit 32 includes a voice recognition dictionary, converts the identified voice into text data, and displays the text data on the display 12. When a voice recognition program is installed in the mobile terminal 10, the voice analysis unit 32 may acquire the result of executing such a voice recognition program by the CPU 22 and perform voice recognition.

また、音声解析部32は、入力した音声に含まれる言葉の内容が、丁寧な言葉(例えば、敬語、丁寧語および謙譲語等)であるか、日常語(平語)であるか、または、それ以外の砕けた言葉であるかを分類する。本実施の形態においては、音声解析部32は、丁寧な言葉(敬語、丁寧語および謙譲語)を第1の分類、日常語を第2の分類、それ以外の言葉を第3の分類とする。音声解析部32は、第3の分類に属する言葉遣いを検出した場合には、ユーザがリラックスしている状態であったり、親密度が高い人と会話している状態であったりすることを認識できる。   Further, the speech analysis unit 32 determines whether the content of the words included in the input speech is a polite word (for example, honorific, polite language, humorous word, etc.), an everyday word (plain language), or Categorize whether it is any other broken word. In the present embodiment, the speech analysis unit 32 sets polite words (honorifics, polite words and humility words) as the first classification, everyday words as the second classification, and other words as the third classification. . When the speech analysis unit 32 detects a wording belonging to the third category, the speech analysis unit 32 recognizes that the user is in a relaxed state or is in a state of talking with a close person. it can.

また、音声解析部32は、一例として、言葉遣いの分類を、会話の語尾の内容に応じて判断する。音声解析部32は、一例として、"おはようございます"というように、語尾が"ございます(です、ます)"であれば第1の分類とする。また、音声解析部32は、一例として、"おはよう"というように、語尾が"です、ます"ではなく、音声認識辞書に登録されている言葉であれば第2の分類とする。また、音声解析部32は、"おはー"というように、音声認識辞書に登録されていない言葉であれば、第3の分類とする。   Moreover, the speech analysis part 32 judges the classification of wording according to the content of the ending of a conversation as an example. For example, the speech analysis unit 32 sets the first classification if the ending is “is (is, is)”, such as “good morning”. Further, as an example, the speech analysis unit 32 sets the second classification as long as it is a word registered in the speech recognition dictionary instead of “Masa”, such as “Good morning”. In addition, the speech analysis unit 32 sets the third classification if the word is not registered in the speech recognition dictionary, such as “Oha”.

画像分析部34は、内蔵カメラ16が撮像した画像を分析する。画像分析部34は、内蔵カメラ16が撮像した画像に加えて、タッチパネル14と反対面側に設けられたカメラが撮像した画像を分析してもよい。   The image analysis unit 34 analyzes the image captured by the built-in camera 16. In addition to the image captured by the built-in camera 16, the image analysis unit 34 may analyze an image captured by a camera provided on the side opposite to the touch panel 14.

画像分析部34は、一例として、顔認識部42、表情検出部44、および服装検出部46を有する。顔認識部42は、内蔵カメラ16が撮像した画像に、顔が含まれているか否かを検出する。さらに、顔認識部42は、画像に顔を検出した場合には、検出した顔の部分の画像データと、不揮発性メモリ30に記憶されているユーザの顔の画像データとを比較(例えばパターンマッチング)して、内蔵カメラ16が撮像した人を認識する。内蔵カメラ16は、ディスプレイ12と同じ側の面に設けられているので(言い換えると、タッチパネル14と同じ側の面に設けられているので)、ユーザおよびユーザの隣にいる人の顔を撮像することができる。従って、顔認識部42は、ユーザおよびユーザの隣にいる人の顔を認識することができる。   As an example, the image analysis unit 34 includes a face recognition unit 42, a facial expression detection unit 44, and a clothing detection unit 46. The face recognition unit 42 detects whether a face is included in the image captured by the built-in camera 16. Further, when a face is detected in the image, the face recognition unit 42 compares the detected face image data with the user face image data stored in the nonvolatile memory 30 (for example, pattern matching). ) And the person captured by the built-in camera 16 is recognized. Since the built-in camera 16 is provided on the same surface as the display 12 (in other words, provided on the same surface as the touch panel 14), the user and the person next to the user are imaged. be able to. Therefore, the face recognition unit 42 can recognize the face of the user and the person next to the user.

表情検出部44は、顔認識部42により認識された顔の画像データと、不揮発性メモリ30に記憶されている顔表情データと比較して、内蔵カメラ16が 撮像した人(例えばユーザおよびユーザの隣にいる人)の表情を検出する。なお、表情検出部44は、笑顔、泣き顔、怒り顔、驚き顔、眉間に皺を寄せている顔、緊張している顔、および、リラックスしている顔等の表情を検出する。不揮発性メモリ30は、これらの複数の表情データを記憶する。笑顔検出の方法は、一例として、米国公開特許2008−037841号に開示されている。また、眉間の皺の検出の方法は、一例として、米国公開特許2008−292148号に開示されている。   The facial expression detection unit 44 compares the face image data recognized by the face recognition unit 42 with the facial expression data stored in the non-volatile memory 30 and captures the person (for example, the user and the user's image) captured by the built-in camera 16. Detect the facial expression of the person next to you. The facial expression detection unit 44 detects facial expressions such as a smile, a crying face, an angry face, a surprised face, a face with a wrinkle between eyebrows, a tense face, and a relaxed face. The nonvolatile memory 30 stores the plurality of facial expression data. As an example, a smile detection method is disclosed in US Patent Publication No. 2008-037841. In addition, a method for detecting eyelids between eyebrows is disclosed in US Publication No. 2008-292148 as an example.

服装検出部46は、内蔵カメラ16により撮像されたユーザの服装が、どのような服装であるかを検出する。服装検出部46は、撮像された画像に含まれている服装の箇所の画像データと、不揮発性メモリ30に予め登録されている服装の画像データとをパターンマッチングして服装を検出してもよい。さらに、服装検出部46は、ユーザの服装の種別を判断する。本実施の形態においては、服装検出部46は、ユーザの服装が、フォーマルな服装か、カジュアル(インフォーマル)な服装かを判断する。   The clothing detection unit 46 detects what kind of clothing the user's clothing imaged by the built-in camera 16 is. The clothing detection unit 46 may detect the clothing by pattern matching the image data of the place of clothing included in the captured image and the image data of the clothing registered in advance in the nonvolatile memory 30. . Furthermore, the clothing detection unit 46 determines the type of clothing of the user. In the present embodiment, the clothes detection unit 46 determines whether the user's clothes are formal clothes or casual (informal) clothes.

顔認識部42により顔が含まれていると判断された画像は、認識した顔の下方部分に服装を含む。従って、服装検出部46は、一例として、顔認識部42により認識された顔の下方部分の予め定められた範囲の画像と、不揮発性メモリ30に記憶されている服装データ(画像データ)とをパターンマッチングすることにより、ユーザの服装を検出することができる。   The image determined to contain the face by the face recognition unit 42 includes clothes in the lower part of the recognized face. Therefore, as an example, the clothes detection unit 46 uses an image of a predetermined range of the lower part of the face recognized by the face recognition unit 42 and clothes data (image data) stored in the nonvolatile memory 30. The user's clothes can be detected by pattern matching.

また、服装検出部46は、携帯端末10を操作しているユーザの服装を検出および服装の種別を判断する。これに加えて、画像内に他のユーザが含まれている場合には、服装検出部46は、ユーザ以外の人の服装の種別を判断してもよい。例えば、服装検出部46は、画像内に複数の人が含まれている場合には、これら複数人のグループが、フォーマルな服装のグループかカジュアルな服装のグループかを判別してもよい。また、服装検出部46は、内蔵カメラ16の撮像素子から検出された色信号に基づいて、服装の種別を分類してもよい。服装検出部46は、黒、紺、グレー、ベージュといったような落ち着いた感じの色合いが多い服装の場合には、フォーマルな服装であると判断し、赤、青、黄色といったような鮮やかな色合いが多い場合にはカジュアルな服装であると判断する。   In addition, the clothing detection unit 46 detects the clothing of the user who is operating the mobile terminal 10 and determines the type of clothing. In addition to this, when another user is included in the image, the clothing detection unit 46 may determine the type of clothing of a person other than the user. For example, when a plurality of people are included in the image, the clothing detection unit 46 may determine whether the group of the plurality of people is a formal clothing group or a casual clothing group. The clothing detection unit 46 may classify the type of clothing based on the color signal detected from the image sensor of the built-in camera 16. The clothing detection unit 46 determines that the clothing is a formal clothing in the case of a lot of calm colors such as black, dark blue, gray, and beige, and vivid colors such as red, blue, and yellow are obtained. If there are many, it is judged to be casual clothes.

通信部36は、ネットワーク上のサーバおよび他の携帯端末と通信する。通信部36は、一例として、インターネット等の広域ネットワークにアクセスする無線通信ユニット、Bluetooth(登録商標)による通信を実現するBluetooth(登録商標)ユニット、及び、Felica(登録商標)チップ等を有し、サーバおよび他の携帯端末と通信する。   The communication unit 36 communicates with a server and other portable terminals on the network. As an example, the communication unit 36 includes a wireless communication unit that accesses a wide area network such as the Internet, a Bluetooth (registered trademark) unit that realizes communication using Bluetooth (registered trademark), a Felica (registered trademark) chip, and the like. Communicate with servers and other mobile terminals.

図3は、本実施形態に係る携帯端末10の制御フローを示す。図4は、図3に続く制御フローを示す。   FIG. 3 shows a control flow of the mobile terminal 10 according to the present embodiment. FIG. 4 shows a control flow following FIG.

携帯端末10は、ユーザにより操作が開始されると、図3および図4に示す処理を実行する。携帯端末10は、一例として、ユーザが当該携帯端末10を保持したことを生体センサ20が検出したこと、および、ユーザがタッチパネル14に触れたこと等を条件として、ユーザにより操作が開始されたと判断する。   When the operation is started by the user, the mobile terminal 10 executes the processes shown in FIGS. For example, the mobile terminal 10 determines that the operation has been started by the user on the condition that the biosensor 20 detects that the user has held the mobile terminal 10 and that the user touches the touch panel 14. To do.

まず、CPU22は、カレンダー部28から、操作が開始された年月日および時刻を取得する(ステップS11)。本例においては、CPU22は、10月の平日の午前11時30分であることを取得したとする。   First, the CPU 22 acquires the date and time when the operation was started from the calendar unit 28 (step S11). In this example, it is assumed that the CPU 22 has acquired that it is 11:30 am on weekdays in October.

続いて、CPU22は、各種センサから周辺情報を取得する(ステップS12)。CPU22は、一例として、GPSモジュール24から位置情報を取得するとともに、温度計26から温度情報を取得する。また、CPU22は、一例として、温度情報に加えて不図示の湿度計により湿度情報を取得してもよい。本例においては、CPU22は、GPSモジュール24から位置情報を取得し、温度計26から20度の温度情報を取得したとする。   Subsequently, the CPU 22 acquires peripheral information from various sensors (step S12). As an example, the CPU 22 acquires position information from the GPS module 24 and acquires temperature information from the thermometer 26. Moreover, CPU22 may acquire humidity information with a hygrometer not shown in addition to temperature information as an example. In this example, it is assumed that the CPU 22 acquires position information from the GPS module 24 and acquires temperature information of 20 degrees from the thermometer 26.

続いて、CPU22は、ユーザの生体情報を取得する(ステップS13)。CPU22は、一例として、生体センサ20からユーザの体温、脈拍および血圧等を取得する。本例においては、CPU22は、生体センサ20から、通常時よりも高い脈拍および血圧を取得し、手から発汗があることを取得したとする。なお、ステップS11、S12およびS13の処理順序は適宜入れ替えてもよい。   Then, CPU22 acquires a user's biometric information (Step S13). CPU22 acquires a user's body temperature, a pulse, blood pressure, etc. from the biosensor 20 as an example. In this example, it is assumed that the CPU 22 acquires a pulse and blood pressure higher than normal from the biological sensor 20 and acquires that there is sweating from the hand. Note that the processing order of steps S11, S12, and S13 may be changed as appropriate.

続いて、CPU22は、取得した年月日および時刻、周辺情報および生体情報に基づき、撮像タイミングであるか否かを判断する(ステップS14)。CPU22は、一例として、年月日および時刻、周辺情報および生体情報が予め設定された条件に一致している場合に、撮像タイミングであると判断する。例えば、CPU22は、ビジネス領域の時間帯であり、且つ、ユーザが緊張していると判断される生体情報が検出された場合、撮像タイミングであると判断してもよい。また、CPU22は、GPSモジュール24の出力に基づいて、ユーザが初めて訪れる場所にいたり、久しぶりに訪れる場所(最後に訪れてから一定期間以上経過した場所)にいたりする場合に撮像タイミングを判断してもよい。   Subsequently, the CPU 22 determines whether it is an imaging timing based on the acquired date and time, peripheral information, and biological information (step S14). As an example, the CPU 22 determines that it is the imaging timing when the date and time, the peripheral information, and the biometric information match preset conditions. For example, the CPU 22 may determine that it is the imaging timing when biometric information is detected that is in the time zone of the business area and that the user is determined to be nervous. The CPU 22 determines the imaging timing based on the output of the GPS module 24 when the user visits a place for the first time or a place visited after a long time (a place where a certain period has passed since the last visit). Also good.

CPU22は、撮像タイミングであれば(ステップS14のYes)、処理をステップS15に進める。また、CPU22は、撮像タイミングでなければ(ステップS14のNo)、処理をステップS11に戻して、例えば一定時間後にステップS11から処理を繰り返す。また、CPU22は、撮像タイミングでなければ(ステップS14のNo)、本フローを抜けて処理を終了してもよい。   If it is imaging timing (Yes of step S14), CPU22 will advance a process to step S15. Moreover, if it is not an imaging timing (No of step S14), CPU22 will return a process to step S11 and will repeat a process from step S11, for example after a fixed time. Further, the CPU 22 may exit this flow and end the process if it is not the imaging timing (No in step S14).

続いて、CPU22は、撮像タイミングと判断した場合、内蔵カメラ16によりユーザおよびユーザの近傍を撮像する(ステップS15)。これとともに、CPU22は、マイク18によりユーザの周囲の音声を取得する。   Subsequently, when determining that it is the imaging timing, the CPU 22 images the user and the vicinity of the user with the built-in camera 16 (step S15). At the same time, the CPU 22 acquires sound around the user through the microphone 18.

続いて、画像分析部34は、内蔵カメラ16により撮像した画像を分析して、撮像した画像に含まれる顔を認識する(ステップS16)。画像分析部34は、一例として、撮像した画像に含まれる顔の画像データと、不揮発性メモリ30に記憶されている顔データとを比較して、当該携帯端末10を操作しているユーザを認識する。さらに、画像分析部34は、撮像した画像の中に、ユーザ以外の他の人の顔が含まれている場合には、更に、その他の人の顔を認識する。本例においては、画像分析部34は、男性のユーザの顔を認識したとする。さらに、本例においては、画像分析部34は、ユーザの隣に顔があることは検出したが、ユーザの隣の人の顔の認識はできなかったとする。   Subsequently, the image analysis unit 34 analyzes the image captured by the built-in camera 16 and recognizes a face included in the captured image (step S16). For example, the image analysis unit 34 compares the face image data included in the captured image with the face data stored in the nonvolatile memory 30, and recognizes the user who is operating the mobile terminal 10. To do. Furthermore, when the captured image includes a face of another person other than the user, the image analysis unit 34 further recognizes the face of the other person. In this example, it is assumed that the image analysis unit 34 recognizes a male user's face. Furthermore, in this example, it is assumed that the image analysis unit 34 detects that there is a face next to the user, but cannot recognize the face of the person next to the user.

続いて、画像分析部34は、ユーザの身なりを解析する(ステップS17)。画像分析部34は、一例として、ユーザの服装を検出して、ユーザの服装の種別を分類する。画像分析部34は、一例として、ユーザの服装が、フォーマルな服装か、カジュアルな服装かを判断する。この場合、画像分析部34は、一例として、撮像した画像における顔と認識された箇所の下の領域と、予め登録されている服装データとをパターンマッチングすることにより、ユーザの服装の種別を分類する。画像分析部34は、一例として、撮像した画像における顔と認識された箇所の下の領域の色合いを検出して、ユーザの服装の種別を分類する。また、画像分析部34は、不揮発性メモリ30に記憶された服装の特徴的な形状とのパターンマッチングにより、ユーザの服装の種別を分類してもよく、上述の分類方法を組み合わせてもよい。   Subsequently, the image analysis unit 34 analyzes the user's appearance (step S17). For example, the image analysis unit 34 detects the user's clothes and classifies the type of the user's clothes. For example, the image analysis unit 34 determines whether the user's clothes are formal clothes or casual clothes. In this case, as an example, the image analysis unit 34 classifies the type of the user's clothes by pattern-matching the area under the part recognized as the face in the captured image and the clothes data registered in advance. To do. As an example, the image analysis unit 34 detects the hue of the area under the portion recognized as the face in the captured image, and classifies the type of clothes of the user. Further, the image analysis unit 34 may classify the type of the user's clothes by pattern matching with the characteristic shape of the clothes stored in the nonvolatile memory 30, or may combine the above classification methods.

続いて、CPU22は、ユーザの状況を分析する(ステップS18)。CPU22は、ユーザの身なりに応じて、ユーザの状況を判断する。CPU22は、一例として、ユーザの服装がフォーマルな服装であればビジネスの状況であると判断し、ユーザの服装がカジュアルな服装であればプライベートの状況と判断する。   Subsequently, the CPU 22 analyzes the user situation (step S18). The CPU 22 determines the user's situation according to the user's appearance. For example, if the user's clothes are formal clothes, the CPU 22 determines that the situation is a business situation, and if the user's clothes are casual clothes, the CPU 22 determines that the situation is private.

更に、CPU22は、一例として、年月日および時刻からユーザの状況を判断してもよい。CPU22は、一例として、平日の午前9時から午後6時までの間であればビジネスの状況と判断し、それ以外の時間帯であればプライベートの状況と判断する。   Furthermore, CPU22 may judge a user's condition from a date and time as an example. As an example, the CPU 22 determines that the business situation is from 9:00 am to 6:00 pm on weekdays, and determines that it is a private situation during other time zones.

また、更に、CPU22は、一例として、ユーザの位置に応じて状況を分析してもよい。CPU22は、一例として、会社の近傍にいる場合にはビジネスの状況と判断し、ユーザが自宅近傍にいる場合にはプライベートの状況と判断する。   Furthermore, CPU22 may analyze a condition according to a user's position as an example. As an example, the CPU 22 determines a business situation when the user is in the vicinity of the company, and determines a private situation when the user is in the vicinity of the house.

また、更に、CPU22は、一例として、生体情報からユーザの状況を分析してもよい。CPU22は、一例として、血圧、脈拍および手の汗が平常時より高い場合には緊張した状況であると判断する。   Furthermore, CPU22 may analyze a user's condition from biometric information as an example. As an example, the CPU 22 determines that the situation is tense when blood pressure, pulse, and hand sweat are higher than normal.

また、更に、CPU22は、一例として、認識されたユーザの顔の表情からユーザの状況を分析してもよい。CPU22は、一例として、ユーザが緊張した表情をしている顔の場合には緊張した状況であると判断し、リラックスした表情をしている場合にはリラックスした状況であると判断する。   Further, as an example, the CPU 22 may analyze the user situation from the recognized facial expression of the user. For example, the CPU 22 determines that the user is in a tense situation when the user has a tense expression, and determines that the user is in a relaxed situation when the user has a relaxed expression.

また、更に、CPU22は、一例として、マイク18により取得した音声から解析されたユーザまたはユーザの近くにいる人の言葉遣いに基づきユーザの状況を分析してもよい。CPU22は、一例として、ユーザの話した言葉の語尾が第1の分類であればビジネスの状況と判断し、第2の分類であれば友人と会っている状況であると判断し、第3の分類であれば更に親密な友人と会っている状況と判断する。本例においては、CPU22は、ユーザが"お好きな食べ物は何ですか"という言葉を発したことを検出し、語尾に"です"があるので第1の分類と判断したとする。   Furthermore, CPU22 may analyze a user's condition based on the user's wording analyzed from the audio | voice acquired with the microphone 18 as an example, or the person who is near the user as an example. For example, if the ending of the word spoken by the user is the first classification, the CPU 22 determines that the situation is a business situation, and if it is the second classification, the CPU 22 determines that the situation is meeting a friend. If it is a classification, it is judged that the situation is meeting with a more intimate friend. In this example, it is assumed that the CPU 22 detects that the user has uttered the word “What is your favorite food?” And determines that it is the first classification because “is” at the end of the word.

また、CPU22は、以上の判断結果を総合して更に詳細にユーザの状況を判断してもよい。本例においては、CPU22は、ユーザが平日の午前中(ビジネスタイム)にフォーマルな服装でビジネス領域にいて、緊張した状態であまり面識のない人(親密度が高くない人)に対して丁寧な言葉遣いをしている状況である、との分析結果を取得したとする。   Further, the CPU 22 may determine the user's situation in more detail by combining the above determination results. In this example, the CPU 22 is polite to a person who is in a business area with formal clothes in the morning (business time) on weekdays and who is intimate and not very acquainted (person who is not close). It is assumed that an analysis result indicating that the language is being used is acquired.

ユーザの状況の判断が終了すると、続いて、CPU22は、ユーザの操作が、通信部36を用いてネットワークから情報を検索して取得するための検索操作か否かを判断する(ステップS19)。CPU22は、ユーザの操作が検索操作の場合(ステップS19のYes)、処理をステップS20に進め、ユーザの操作が検索操作では無い場合(ステップS19のNo)、処理をステップS21に進める。   When the determination of the user status is completed, the CPU 22 determines whether the user operation is a search operation for searching for and acquiring information from the network using the communication unit 36 (step S19). If the user operation is a search operation (Yes in step S19), the CPU 22 advances the process to step S20. If the user operation is not a search operation (No in step S19), the CPU 22 advances the process to step S21.

CPU22は、ユーザの操作が検索操作の場合(ステップS19のYes)、ユーザが検索のために入力した検索キーワードに、ユーザの状況に対応するキーワードを追加して検索を実行する(ステップS20)。これにより、CPU22は、ネットワークから、ユーザの状況に適した情報をユーザに対して提供することができる。   When the user's operation is a search operation (Yes in step S19), the CPU 22 adds the keyword corresponding to the user's situation to the search keyword input for the search by the user and executes the search (step S20). Thereby, CPU22 can provide the user with the information suitable for a user's condition from a network.

本例の場合においては、CPU22は、ユーザが入力した"ランチ"という検索キーワードに、服装から判断されるユーザの状況を表す"フォーマル"というキーワードを追加して、検索を実行する。これにより、CPU22は、ネットワークから、フォーマルな状況に適したランチを食べるためのお店等の情報を取得することができる。   In the case of this example, the CPU 22 performs a search by adding a keyword “formal” representing the user's situation determined from clothes to the search keyword “lunch” input by the user. Thereby, CPU22 can acquire information, such as a shop for eating lunch suitable for a formal situation, from a network.

また、CPU22は、ユーザの服装により判断される状況に代えて、ユーザの言葉遣いの違いにより判断された状況に応じてキーワードを追加してもよい。CPU22は、一例として、ユーザがフォーマルな格好をしている場合であっても、ユーザの語尾が第2の分類または第3の分類である場合には、例えば"ファーストフード"または"ファミリー向け"といったキーワードを追加して検索を実行する。   Further, the CPU 22 may add keywords according to the situation determined by the difference in the user's wording, instead of the situation determined by the user's clothes. For example, even if the user has a formal appearance, the CPU 22 may, for example, “fast food” or “family oriented” if the user's ending is the second classification or the third classification. Search by adding keywords such as.

また、音声解析部32がユーザの言葉の中から"食事"という用語を特定した場合において、ユーザがタッチパネル14により検索メニューを操作したことに応じて、CPU22は、ディスプレイ12に"ランチの検索をしますか?"というような、特定した用語に応じたメッセージを表示してもよい。また、CPU22は、生体センサ20が検出した生体情報からユーザが焦っている状態(交感神経が活発となり血圧および心拍数が上昇したり、発汗したりする状態)と判断した場合は、ソフトウェアによる処理によりタッチパネル14の感度を敏感にしたり、ディスプレイ12に表示する文字を大きくしてもよい。   In addition, when the voice analysis unit 32 specifies the term “meal” from the user's words, the CPU 22 searches the display 12 for “lunch search” in response to the user operating the search menu using the touch panel 14. You may display a message for the specified term, such as "Do you want to?" In addition, when the CPU 22 determines that the user is in a state of being impatient from the biological information detected by the biological sensor 20 (a state in which the sympathetic nerve is active and blood pressure and heart rate are increased or sweating), processing by software is performed. Thus, the sensitivity of the touch panel 14 may be made sensitive, or the characters displayed on the display 12 may be enlarged.

一方、CPU22は、ユーザの操作が検索操作ではない場合(ステップS19のNo)、ユーザに対してアドバイスを表示するタイミングか否かを判断する(ステップS21)。CPU22は、一例として、ユーザがタッチパネル14を操作中であって入力量(操作量)が予め設定された量よりも多い場合、アドバイスを表示するタイミングではないと判断する。また、CPU22は、一例として、生体センサ20の検出結果に基づき、ユーザの感情および心情の変化が少ない状態の場合に、アドバイスを表示するタイミングであると判断する。また、反対に、CPU22は、一例として、ユーザの感情および心情の変化が大きい場合に、アドバイスを表示するタイミングであると判断する。   On the other hand, when the user's operation is not a search operation (No in step S19), the CPU 22 determines whether it is time to display advice for the user (step S21). For example, when the user is operating the touch panel 14 and the input amount (operation amount) is larger than a preset amount, the CPU 22 determines that it is not time to display advice. Further, as an example, the CPU 22 determines that it is the timing for displaying advice when there is little change in the user's emotion and emotion based on the detection result of the biometric sensor 20. On the other hand, as an example, the CPU 22 determines that it is time to display advice when there are large changes in the user's emotions and feelings.

CPU22は、アドバイスを表示するタイミングであると判断した場合(ステップS21のYes)、処理をステップS22に進める。また、CPU22は、アドバイスを表示するタイミングではないと判断した場合(ステップS21のNo)、ステップS22をスキップして、処理をステップS23に進める。なお、ステップS21においてアドバイスを表示するタイミングではないと判断した場合、CPU22は、アドバイスを表示するタイミングとなるまで、当該ステップS21で処理を一定時間繰り返してもよい。   If the CPU 22 determines that it is time to display advice (Yes in step S21), the process proceeds to step S22. If the CPU 22 determines that it is not time to display the advice (No in step S21), it skips step S22 and proceeds to step S23. If it is determined in step S21 that it is not time to display advice, the CPU 22 may repeat the process in step S21 for a certain period of time until it is time to display advice.

続いて、CPU22は、ステップS18で判断したユーザの状況に応じた内容のアドバイスをディスプレイ12に表示する(ステップS22)。CPU22は、一例として、ユーザの状況に応じて、会話の参考となる話題に関する情報を表示する。これにより、CPU22は、例えばユーザがあまり面識の無い人と緊張した状態でランチを取っている場合等において、適切な話題の情報をユーザに提供することができる。より具体的には、CPU22は、フォーマルな服装でビジネスの状況でランチを取っている場合には、政治、経済、事件等のニュースを表示する。さらに、CPU22は、ユーザの会話の中から特定したキーワードに基づき情報を提供してもよい。この場合、例えばユーザの会話中から"為替"というキーワードが特定された場合には、CPU22は、最新の為替レート等を表示する。   Subsequently, the CPU 22 displays advice on the content according to the user's situation determined in step S18 on the display 12 (step S22). CPU22 displays the information regarding the topic used as the reference of conversation according to a user's condition as an example. Thereby, CPU22 can provide a user with the information of an appropriate topic, for example, when a user is having lunch with the person who is not so acquainted with tension. More specifically, the CPU 22 displays news such as politics, economy, and incidents when having lunch in a business situation with formal clothes. Further, the CPU 22 may provide information based on keywords specified from user conversations. In this case, for example, when the keyword “exchange” is specified during the user's conversation, the CPU 22 displays the latest exchange rate or the like.

また、ユーザがカジュアルな服装をしていてもあまり面識のない人と一緒になり、会話が弾まない場合がある。このような場合、CPU22は、一例として、カレンダー部28から取得した日時から時節の話題に関する情報を表示したり、GPSモジュール24からの位置情報に基づき近隣の話題に関する情報を表示したりしてもよい。   In addition, even if the user is wearing casual clothes, the user may not be able to play a conversation with a person who is not very acquainted. In such a case, for example, the CPU 22 may display information on the topic of the time from the date and time acquired from the calendar unit 28, or may display information on a nearby topic based on the position information from the GPS module 24. Good.

また、更に、CPU22は、服装検出部46が検出した服装に応じた話題の情報を表示してもよい。例えば、ユーザが白いネクタイを着用しており、GPSモジュール24から検出された位置情報および地図情報に基づきユーザが結婚式場の近くにいると判断した場合には、CPU22は、通信部36を用いて外部サーバから結婚に関する情報を取得してこれらの情報を表示したり、不揮発性メモリ30に記憶されているお祝いの言葉、スピーチ例、マナーに関する情報等を表示したりする。また、例えば、ユーザが黒いネクタイをしており、GPSモジュール24からの位置情報および地図情報に基づきユーザが斎場の近くにいると判断した場合に、CPU22は、不揮発性メモリ30に記憶されているお悔やみの言葉および気をつける事項の情報(使わない方がよい用語およびマナー等の情報)を表示する。   Further, the CPU 22 may display topic information corresponding to the clothes detected by the clothes detection unit 46. For example, when the user wears a white tie and determines that the user is near the wedding hall based on the position information and map information detected from the GPS module 24, the CPU 22 uses the communication unit 36. Information related to marriage is acquired from an external server and displayed, or congratulations, speech examples, manner information, etc. stored in the non-volatile memory 30 are displayed. Further, for example, when it is determined that the user is in a black tie and the user is near the place based on the position information and map information from the GPS module 24, the CPU 22 is stored in the nonvolatile memory 30. Display condolences and information on matters to watch out for (such as terms and manners that should not be used).

なお、CPU22は、当該携帯端末10に対して予め定められたアクションをした場合(例えば、例えば当該携帯端末10を予め定められた力以上で握った場合)、情報の表示タイミングであると判断して、情報を表示してもよい。また、CPU22は、検索結果を取得したことに応じて、不図示のバイブレータ機能により、ユーザに情報検索ができたことを報知するようにしてもよい。   When the CPU 22 performs a predetermined action on the mobile terminal 10 (for example, when the mobile terminal 10 is gripped with a predetermined force or more), the CPU 22 determines that it is the information display timing. Information may be displayed. Further, the CPU 22 may notify the user that the information search has been performed by using a vibrator function (not shown) in response to the acquisition of the search result.

続いて、CPU22は、ユーザが携帯端末10の操作を続けているかどうかを判断する(ステップS23)。CPU22は、一例として、内蔵カメラ16がユーザを撮像し続けている場合、ユーザが操作を続けていると判断してもよい。ユーザが携帯端末10の操作を続けている場合には、CPU22は、ステップS11に戻り処理を繰り返す。そして、CPU22は、ユーザが操作を終了した場合には、ユーザによる携帯端末10の操作時間、ステップS18で分析されたユーザの状況、検索結果、アドバイス情報等を不揮発性メモリ30に記録して(ステップS24)、本フローを抜けて処理を終了する。   Subsequently, the CPU 22 determines whether or not the user continues to operate the mobile terminal 10 (step S23). As an example, when the built-in camera 16 continues to capture the user, the CPU 22 may determine that the user continues to operate. If the user continues to operate the mobile terminal 10, the CPU 22 returns to step S11 and repeats the process. Then, when the user finishes the operation, the CPU 22 records the operation time of the mobile terminal 10 by the user, the user situation analyzed in step S18, the search result, the advice information, and the like in the nonvolatile memory 30 ( Step S24), the process is terminated after exiting this flow.

なお、CPU22は、ステップS24において、認識された顔データのうちの不揮発性メモリ30に顔データが未だ登録されていない人について、不揮発性メモリ30に顔データを記録してもよい。これにより、CPU22は、ユーザが次にその人に会った場合において、その人の顔認識に活用することができる。   Note that the CPU 22 may record the face data in the non-volatile memory 30 for the person whose face data is not yet registered in the non-volatile memory 30 among the recognized face data in step S24. Thereby, CPU22 can utilize for the person's face recognition, when a user meets the person next.

また、CPU22は、ステップS24において、ユーザの言葉遣いの分類を、相手の人と対応付けて記録してもよい。そして、CPU22は、同一の人との会話において、過去に使っていた言葉の言葉遣いの分類と、今回使った言葉の言葉遣いの分類とが異なる場合、ユーザに報知をしてもよい。例えば、CPU22は、同一の人との会話において、ユーザの言葉遣いが第1の分類から第2の分類に変化した場合、ユーザに報知をしてもよい。これにより、CPU22は、そのユーザと何回か会ううちに打ち解けてきたことをユーザに知らせることができる。また、CPU22は、その相手の言葉遣いも記録してもよい。この場合において、CPU22は、ユーザ自身の言葉遣いの分類と、相手の言葉遣いの分類とに相違がある場合、バランスが取れていない旨を報知してもよい。   In step S24, the CPU 22 may record the wording classification of the user in association with the partner person. Then, in the conversation with the same person, the CPU 22 may notify the user when the classification of the wording of words used in the past and the classification of the wording of words used this time are different. For example, the CPU 22 may notify the user when the wording of the user changes from the first classification to the second classification in a conversation with the same person. As a result, the CPU 22 can inform the user that he / she has been able to understand it while meeting the user several times. The CPU 22 may also record the wording of the other party. In this case, when there is a difference between the user's own wording classification and the partner's wording classification, the CPU 22 may notify that the balance is not achieved.

また、CPU22は、図3および図4に示すフローチャートの処理を、ユーザが1人でいる場合に実行してもよい。例えば、CPU22は、ユーザが1人でいる場合にユーザの服装に応じた情報を表示してもよい。より具体的には、CPU22は、一例として、ユーザが自宅におり室温が15度を下回っているのに半袖の服装でいる場合には、"薄着である旨"をディスプレイ12に表示する。また、CPU22は、一例として、気温が30度を超えるような場合に、"水分補給をする旨"をディスプレイ12に表示する。   Further, the CPU 22 may execute the processes of the flowcharts shown in FIGS. 3 and 4 when there is only one user. For example, the CPU 22 may display information corresponding to the user's clothes when the user is alone. More specifically, as an example, when the user is at home and the room temperature is below 15 degrees, but the user is wearing short-sleeved clothes, the CPU 22 displays “not light” on the display 12. Further, as an example, the CPU 22 displays “to rehydrate” on the display 12 when the temperature exceeds 30 degrees.

図5は、変形例に係る携帯端末10の外観構成を示す。なお、本変形例に係る携帯端末10は、図1から図4を参照して説明した携帯端末10と略同一の構成および機能を採るので、同一の構成要素には同一符号を付けて以下相違点を除き説明を省略する。   FIG. 5 shows an external configuration of the mobile terminal 10 according to the modification. Note that the mobile terminal 10 according to this modification employs substantially the same configuration and function as the mobile terminal 10 described with reference to FIGS. 1 to 4, and therefore, the same components are denoted by the same reference numerals and the following differences are noted. Description is omitted except for the points.

本変形例に係る携帯端末10は、図1に示した構成に加えて、ミラーフィルム50を更に備える。ミラーフィルム50は、ディスプレイ12の表面に、例えば接着により貼り付けられている。ミラーフィルム50は、反射性を有する透過性フィルムであり、裏面(ディスプレイ12)側から照射された光を表面側に透過するが、裏面(ディスプレイ12)側から光が照射されていない場合には反射面として機能する。   The mobile terminal 10 according to this modification further includes a mirror film 50 in addition to the configuration shown in FIG. The mirror film 50 is attached to the surface of the display 12 by, for example, adhesion. The mirror film 50 is a transmissive film having reflectivity, and transmits light irradiated from the back surface (display 12) side to the front surface side, but when light is not irradiated from the back surface (display 12) side. Functions as a reflective surface.

従って、このようなミラーフィルム50を備える携帯端末10は、ディスプレイ12から光が発光されていない状態においては(例えば、当該携帯端末10の電源がオフの場合)、化粧をするための小型の鏡として機能する。なお、携帯端末10は、ミラーフィルム50に代えて、ディスプレイ12と同一面であって、ディスプレイ12とは異なる場所に設けられた鏡を備えてもよい。   Therefore, the portable terminal 10 including such a mirror film 50 is a small mirror for applying makeup when light is not emitted from the display 12 (for example, when the portable terminal 10 is turned off). Function as. The mobile terminal 10 may include a mirror provided on the same surface as the display 12 and in a place different from the display 12 instead of the mirror film 50.

図6は、本変形例に係る携帯端末10の機能構成を示す。本変形例に係る携帯端末10は、図2に示した構成に加えて、バックライト52を更に備える。また、本変形例において、画像分析部34は、図2に示した構成に加えて、顔分析部54を更に有する。   FIG. 6 shows a functional configuration of the mobile terminal 10 according to this modification. The mobile terminal 10 according to this modification further includes a backlight 52 in addition to the configuration shown in FIG. In this modification, the image analysis unit 34 further includes a face analysis unit 54 in addition to the configuration shown in FIG.

バックライト52は、光源を有し、液晶表示部等であるディスプレイ12に対して画面裏側から光を照射する。バックライト52は、CPU22により光源のオンおよびオフの切り換えおよび光量の制御がされる。より具体的には、CPU22は、ユーザがタッチパネル14を操作している場合、および、ディスプレイ12に情報を表示する場合、バックライト52をオンにして、ディスプレイ12の視認性を向上させる。また、CPU22は、ユーザがタッチパネル14を操作していない場合、バックライト52をオフにする。また、CPU22は、バックライト52をオフする操作をした場合、バックライト52をオフにする。   The backlight 52 has a light source and irradiates light from the back side of the screen to the display 12 which is a liquid crystal display unit or the like. The backlight 52 is turned on and off by the CPU 22 and the amount of light is controlled. More specifically, the CPU 22 turns on the backlight 52 to improve the visibility of the display 12 when the user is operating the touch panel 14 and when displaying information on the display 12. Further, the CPU 22 turns off the backlight 52 when the user is not operating the touch panel 14. When the CPU 22 performs an operation to turn off the backlight 52, the CPU 22 turns off the backlight 52.

顔分析部54は、内蔵カメラ16の撮像結果および内蔵カメラ16の撮像素子からの色信号の変化から、ユーザの顔に関する変化を分析する。顔分析部54は、一例として、化粧崩れがあるかを分析する。より具体的には、顔分析部54は、顔にテカリがあるかどうか、および、口紅の色落ちがあるかどうか等を分析する。なお、顔のテカリ検出方法は、例えば、特許第4396387号明細書に開示されている。   The face analysis unit 54 analyzes changes related to the user's face from the imaging result of the built-in camera 16 and the change of the color signal from the image sensor of the built-in camera 16. For example, the face analysis unit 54 analyzes whether there is a makeup break. More specifically, the face analysis unit 54 analyzes whether or not there is a shine on the face, whether or not there is a lipstick discoloration, and the like. Note that a method for detecting facial shine is disclosed in, for example, Japanese Patent No. 4396387.

また、顔分析部54は、自宅を出る前(例えば通勤の前)に撮像したユーザのカラーの顔画像を基準として、この顔画像から唇部分に色変化が生じているか否かを判断して、口紅の色落ちを検出する。また、顔分析部54は、ユーザの日々の顔画像のデータおよび口紅の状態を不揮発性メモリ30に記憶させておき、この不揮発性メモリ30のデータとの撮像されたユーザの顔画像とを比較して、口紅の色落ちを検出してもよい。   Further, the face analysis unit 54 determines whether or not a color change has occurred in the lip portion from the face image based on the face image of the color of the user captured before leaving home (for example, before commuting). Detect lipstick discoloration. Further, the face analysis unit 54 stores the daily face image data and the lipstick state of the user in the nonvolatile memory 30, and compares the captured face image of the user with the data in the nonvolatile memory 30. Then, the lipstick discoloration may be detected.

図7は、ユーザが保有する服装の画像データおよびログを記述したテーブルの一例を示す。本変形例において、不揮発性メモリ30には、ユーザが保有している複数の服装の画像データが記憶されている。例えば、不揮発性メモリ30には、ユーザが保有している、スカート、ブラウスおよびコート等の画像データが記憶されている。   FIG. 7 shows an example of a table describing image data and logs of clothes held by the user. In this modification, the non-volatile memory 30 stores a plurality of clothing image data held by the user. For example, the non-volatile memory 30 stores image data such as skirts, blouses, and coats that the user has.

CPU22は、不揮発性メモリ30に、新たな服装の画像データを適宜追加する。CPU22は、一例として、ユーザがネットワーク等を介してオンラインショップで服を購入した場合に、その服の画像および名称等を不揮発性メモリ30に登録する。また、CPU22は、ユーザが新たな服を撮像した場合、その撮像した服の画像および名称等を不揮発性メモリ30に登録する。また、服装には、服のみならず、アクセサリ、帽子、靴およびカバン等を含んでいてもよい。   The CPU 22 appropriately adds new clothes image data to the nonvolatile memory 30. As an example, when the user purchases clothes at an online shop via a network or the like, the CPU 22 registers an image, a name, and the like of the clothes in the nonvolatile memory 30. In addition, when the user captures new clothes, the CPU 22 registers an image, a name, and the like of the captured clothes in the nonvolatile memory 30. In addition, clothes may include not only clothes but also accessories, hats, shoes, bags, and the like.

また、不揮発性メモリ30には、それぞれの服装に対応して、第1のログおよび第2のログが登録されている。第1のログには、当該服装の着用頻度が含まれる。第1のログには、一例として、月毎の着用頻度および季節毎の着用頻度が含まれる。また、第2のログには、当該服装のユーザのお気に入り度が含まれる。第2のログには、一例として、1から9までの数値でお気に入り度が表されている。なお、第1のログおよび第2のログの更新については、次のフローの説明において行う。   In addition, in the nonvolatile memory 30, a first log and a second log are registered corresponding to each clothing. The first log includes the wearing frequency of the clothes. As an example, the first log includes the monthly wear frequency and the seasonal wear frequency. Further, the second log includes the favorite degree of the user of the clothes. In the second log, for example, the favorite degree is represented by numerical values from 1 to 9. The update of the first log and the second log will be described in the following flow description.

図8は、本実施形態に係る携帯端末10の制御フローを示す。携帯端末10は、ユーザによる操作またはユーザによる当該携帯端末10の保持が検出されると、図8に示す処理を実行する。   FIG. 8 shows a control flow of the mobile terminal 10 according to the present embodiment. When the operation by the user or the holding of the mobile terminal 10 by the user is detected, the mobile terminal 10 executes the process shown in FIG.

CPU22は、カレンダー部28から、操作が開始された年月日および時刻を取得する(ステップS31)。続いて、CPU22は、各種センサから周辺情報を取得する(ステップS32)。続いて、CPU22は、ユーザの生体情報を取得する(ステップS33)。なお、ステップS31、S32およびS33の処理は、図3および図4に示したフローチャートのステップS11、S12およびS13の処理と同様である。   The CPU 22 acquires the date and time when the operation was started from the calendar unit 28 (step S31). Subsequently, the CPU 22 acquires peripheral information from various sensors (step S32). Then, CPU22 acquires a user's biometric information (Step S33). Note that the processing in steps S31, S32, and S33 is the same as the processing in steps S11, S12, and S13 in the flowcharts shown in FIGS.

続いて、CPU22は、取得した年月日および時刻、周辺情報および生体情報に基づき、撮像タイミングであるか否かを判断する(ステップS34)。CPU22は、一例として、年月日および時刻、周辺情報および生体情報が予め設定された条件に一致している場合に、撮像タイミングであると判断する。   Subsequently, the CPU 22 determines whether it is an imaging timing based on the acquired date and time, peripheral information, and biological information (step S34). As an example, the CPU 22 determines that it is the imaging timing when the date and time, the peripheral information, and the biometric information match preset conditions.

例えば、CPU22は、自宅を出る前(例えば通勤の前)の時間帯であってユーザが自宅にいる場合、または、ユーザが会社に出勤してから一定時間経過後の時間帯であってユーザが会社内にいる場合等において、撮像タイミングであると判断してもよい。CPU22は、撮像タイミングであれば(ステップS34のYes)、処理をステップS35に進める。また、CPU22は、撮像タイミングでなければ(ステップS34のNo)、処理をステップS31に戻して、例えば一定時間後にステップS31から処理を繰り返す。また、CPU22は、撮像タイミングでなければ(ステップS34のNo)、本フローを抜けて処理を終了してもよい。   For example, the CPU 22 is in a time zone before leaving home (for example, before commuting) and when the user is at home, or a time zone after a certain time has elapsed since the user went to work. When the user is in the company, it may be determined that it is the imaging timing. If it is imaging timing (Yes of step S34), CPU22 will advance a process to step S35. Moreover, if it is not an imaging timing (No of step S34), CPU22 will return a process to step S31 and will repeat a process from step S31, for example after a fixed time. Further, the CPU 22 may exit this flow and end the process if it is not the imaging timing (No in step S34).

続いて、CPU22は、撮像タイミングと判断した場合、内蔵カメラ16によりユーザを撮像する(ステップS35)。この場合において、CPU22は、ユーザの顔と、ユーザの服装を認識できるような画角等で撮像する。   Subsequently, when the CPU 22 determines that it is an imaging timing, the CPU 22 images the user with the built-in camera 16 (step S35). In this case, the CPU 22 captures an image at an angle of view or the like that can recognize the user's face and the user's clothes.

続いて、CPU22は、バックライト52がオンとなっているか、バックライト52がオフとなっているかを判断する(ステップS36)。バックライト52がオンとなっている場合には、ユーザは、当該携帯端末10を操作していたり、当該携帯端末10により表示される情報を見ていたりする状態である。反対に、バックライト52がオフとなっている場合には、ユーザは、当該携帯端末10を鏡として使用している状態である可能性が高い。   Subsequently, the CPU 22 determines whether the backlight 52 is on or whether the backlight 52 is off (step S36). When the backlight 52 is on, the user is operating the portable terminal 10 or viewing information displayed by the portable terminal 10. On the other hand, when the backlight 52 is off, the user is likely to be in a state of using the mobile terminal 10 as a mirror.

バックライト52がオンとなっている場合、即ち、ユーザが携帯端末10を操作していたり、表示されている情報を見ていたりする状態の場合(ステップS36のYes)、CPU22は、処理をステップS37に進める。また、バックライト52がオフとなっている場合、即ち、ユーザが携帯端末10を鏡として使用している場合(ステップS36のNo)、CPU22は、処理をステップS40に進める。   When the backlight 52 is on, that is, when the user is operating the mobile terminal 10 or viewing the displayed information (Yes in step S36), the CPU 22 performs the processing step. Proceed to S37. If the backlight 52 is off, that is, if the user is using the mobile terminal 10 as a mirror (No in step S36), the CPU 22 advances the process to step S40.

バックライト52がオンとなっている場合の処理において、画像分析部34は、ユーザを撮像した画像における服装部分の画像データと、不揮発性メモリ30に記憶されているユーザの服装の画像データとパターンマッチング等をして、ユーザが身につけている服等が、ユーザが保有している服装のうちの何れなのかを特定する(ステップS37)。さらに、画像分析部34は、特定した服装の組み合わせを更に判別してもよい。   In the process in the case where the backlight 52 is on, the image analysis unit 34 displays the image data of the clothing part in the image obtained by capturing the user, the image data and pattern of the user's clothing stored in the nonvolatile memory 30. Matching or the like is performed to identify which of the clothes the user is wearing, such as clothes the user is wearing (step S37). Furthermore, the image analysis unit 34 may further determine the identified combination of clothes.

続いて、CPU22は、特定した服装に対応する第1のログを更新する(ステップS38)。より具体的には、CPU22は、特定した服装に対応する頻度(当月の頻度および当該季節の頻度)の値を、1つカウントアップする。さらに、CPU22は、服装の組み合わせを特定した場合には、特定した組み合わせの情報を不揮発性メモリ30に記憶させる。   Subsequently, the CPU 22 updates the first log corresponding to the identified clothes (step S38). More specifically, the CPU 22 increments the value of the frequency corresponding to the identified clothes (the frequency of the current month and the frequency of the season) by one. Furthermore, when the combination of clothes is specified, the CPU 22 stores information on the specified combination in the nonvolatile memory 30.

また、CPU22は、ステップS37〜S38の処理を1日1回のみ行うようにしてもよい。これにより、CPU22は、ユーザが保有しているそれぞれの服をユーザがどの程度の頻度で着ているかを、日毎に更新することができる。なお、CPU22は、撮像された画像が不鮮明でユーザの服装が検出できない場合には、ステップS37〜S38の処理をスキップする。   Further, the CPU 22 may perform the processes of steps S37 to S38 only once a day. Thereby, CPU22 can update every day how often a user wears each clothes which a user holds. If the captured image is unclear and the user's clothes cannot be detected, the CPU 22 skips the processes of steps S37 to S38.

続いて、画像分析部34は、ユーザの顔を分析する(ステップS39)。より具体的には、画像分析部34は、ユーザの顔画像から、口紅の色落ちおよび顔のテカリ等が生じて、化粧崩れが生じたかを分析する。また、ユーザが男性の場合には、画像分析部34は、ひげが伸びてきたかどうかを分析してもよい。画像分析部34は、一例として、自宅を出る前(例えば通勤の前)に撮像したユーザの顔画像と、ステップS35で撮像した顔画像とを比較して、化粧崩れが生じているかまたはひげが伸びできたかを分析する。CPU22は、ステップS39の処理を終えると、処理をステップS43に進める。   Subsequently, the image analysis unit 34 analyzes the user's face (step S39). More specifically, the image analysis unit 34 analyzes whether lipstick discoloration, facial shine or the like has occurred from the user's face image, and makeup collapse has occurred. When the user is a man, the image analysis unit 34 may analyze whether the beard has grown. For example, the image analysis unit 34 compares the face image of the user imaged before leaving home (for example, before commuting) with the face image imaged in step S35, and makeup collapse or a beard has occurred. Analyze whether growth has been achieved. When finishing the process of step S39, the CPU 22 advances the process to step S43.

一方、バックライト52がオフとなっている場合において、CPU22は、ユーザの感情を解析する(ステップS40)。CPU22は、一例として、生体センサ20の検出結果および顔画像から解析された表情等から、ユーザが、機嫌が良いのか、普通の気分なのか、又は機嫌が悪いのか等を解析する。   On the other hand, when the backlight 52 is off, the CPU 22 analyzes the user's emotion (step S40). As an example, the CPU 22 analyzes whether the user is in a good mood, in a normal mood, or in a bad mood from the detection result of the biometric sensor 20 and the facial expression analyzed from the face image.

続いて、画像分析部34は、ユーザを撮像した画像における服装部分の画像データと、不揮発性メモリ30に記憶されているユーザの服装の画像データとパターンマッチング等をして、ユーザが身につけている服装が、ユーザが保有している服装のうちの何れなのかを特定する(ステップS41)。   Subsequently, the image analysis unit 34 performs pattern matching with the image data of the clothing portion in the image captured of the user and the image data of the user's clothing stored in the non-volatile memory 30, and the image is worn by the user. It is specified which of the clothes that the user has is the clothes that the user has (step S41).

続いて、CPU22は、特定した服装に対応する第2のログを、ステップS40で解析したユーザの感情に応じて更新する。より具体的には、CPU22は、ユーザの機嫌が良ければ、特定した服装に対応するお気に入り度を上げる。また、CPU22は、ユーザの機嫌が普通であれば、特定した服装に対応するお気に入り度を変更しない。また、CPU22は、ユーザの機嫌が悪ければ、特定した服装に対応するお気に入り度を下げる。   Subsequently, the CPU 22 updates the second log corresponding to the identified clothes according to the user's emotion analyzed in step S40. More specifically, if the user is happy, the CPU 22 increases the degree of favorite corresponding to the specified clothes. Further, if the user's mood is normal, the CPU 22 does not change the favorite degree corresponding to the specified clothes. Moreover, if a user's mood is bad, CPU22 will reduce the favorite degree corresponding to the specified clothes.

バックライト52がオフとなっている場合であって、ユーザが当該携帯端末10を保持している場合、ユーザは、当該携帯端末10を鏡として使用している状態である可能性が高い。このような場合、ユーザは、身に着けている服装が気に入っていれば機嫌の良い気分となり、身に着けている服装が気に入ってなければ機嫌の悪い気分となる可能性が高い。そこで、このような状態におけるユーザの感情を、身に付けている服装に対応して長期間記録していれば、ユーザがその服装を気に入っているか気に入っていないかの指標とすることができる。   When the backlight 52 is off and the user is holding the portable terminal 10, the user is likely to be in a state of using the portable terminal 10 as a mirror. In such a case, the user is likely to be in a good mood if he likes the clothes he is wearing, and is likely to be in a bad mood if he does not like the clothes he is wearing. Therefore, if the user's emotion in such a state is recorded for a long time corresponding to the clothes worn, it can be used as an indicator of whether the user likes or dislikes the clothes.

なお、CPU22は、ステップS40〜42の処理をユーザが自宅を出る前(例えば通勤の前)であることを条件として実行してもよい。また、CPU22は、ステップS40〜43の処理を1日1回のみ行うようにしてもよい。また、CPU22は、撮像された画像が不鮮明でユーザの服装が検出できない場合には、ステップS40〜S42の処理をスキップする。CPU22は、ステップS42の処理を終えると、処理をステップS43に進める。   Note that the CPU 22 may execute the processes in steps S40 to S42 on the condition that the user is before leaving the home (for example, before commuting). Further, the CPU 22 may perform the processes of steps S40 to S43 only once a day. On the other hand, when the captured image is unclear and the user's clothes cannot be detected, the CPU 22 skips steps S40 to S42. When finishing the process of step S42, the CPU 22 advances the process to step S43.

続いて、ステップS43において、CPU22は、ユーザにアドバイスを表示するタイミングか否かを判断する。CPU22は、ユーザにアドバイスを表示するタイミングであれば(ステップS43のYes)、ステップS44においてユーザに対してアドバイスを表示する。CPU22は、ユーザにアドバイスを表示するタイミングでなければ(ステップS43のNo)、ステップS43においてアドバイスを表示するタイミングとなるまで処理を待機する。なお、CPU22は、ユーザにアドバイスを表示するタイミングでなければ、一定時間ステップS43で処理を待機したのちに、本フローを抜けて処理を終了してもよい。   Subsequently, in step S43, the CPU 22 determines whether it is time to display advice to the user. If it is a timing which displays advice to a user (Yes of Step S43), CPU22 will display advice to a user in Step S44. If it is not time to display advice to the user (No in step S43), the CPU 22 waits for processing until it is time to display advice in step S43. If it is not time to display advice to the user, the CPU 22 may exit the flow and end the processing after waiting for the processing in step S43 for a predetermined time.

ステップS44においては、CPU22は、一例として、ネットワークを介してオンラインショップ等で服等を購入するタイミングにおいて、第2のログに示される内容を表示する。CPU22は、一例として、服等を購入するタイミングにおいて、お気に入り度の高い服装の画像データ、または、お気に入り度の低い服装の画像データを表示する。これにより、ユーザは、新たな服等の購入時等に、自分の好みを確認することができる。   In step S44, for example, the CPU 22 displays the contents shown in the second log at the timing of purchasing clothes etc. at an online shop or the like via the network. For example, the CPU 22 displays image data of clothes having a high degree of favorite or image data of clothes having a low degree of favorite at the timing of purchasing clothes and the like. Thus, the user can confirm his / her preference when purchasing new clothes or the like.

また、CPU22は、ネットワークを介してオンラインショップ等で服等を購入している場合において、購入しようと選択した服とデザインが似通っている服等を既にユーザが保有していれば、注意を促すアドバイスを表示してもよい。これにより、ユーザは、似通っている服を重複して購入してしまうことを回避することができる。   In addition, when purchasing clothes or the like at an online shop or the like via a network, the CPU 22 calls attention if the user already has clothes that are similar in design to the clothes selected to be purchased. Advice may be displayed. Thus, the user can avoid purchasing similar clothes in duplicate.

また、CPU22は、第1のログを参照して、頻繁に着用している服等およびあまり着用していない服等をユーザに表示する。これにより、ユーザは、着用している服等の偏りを知って、着用する服等の選択に役立てることができる。   Further, the CPU 22 refers to the first log, and displays frequently worn clothes and the like that are not often worn to the user. Thereby, the user can know bias of the clothes etc. which he wears, and can use it for selection of the clothes etc. to wear.

また、CPU22は、ユーザが会社に出勤してから一定時間経過後の時間帯であってユーザが会社内にいる場合であって、ステップS39で化粧崩れ(顔のテカリおよび口紅の色落ち)を検出した場合、または、ひげが伸びてきたことを検出した場合には、その旨を表示してもよい。これにより、ユーザは、化粧直しおよびひげを剃るべきタイミングであることを知ることができる。   Further, the CPU 22 is a time zone after a certain period of time has elapsed since the user went to work, and the user is in the company. In step S39, the makeup is broken (peeling of face and lipstick discoloration). If it is detected, or if it is detected that the whiskers have grown, this may be displayed. Thereby, the user can know that it is time to remake and to shave.

そして、CPU22は、ステップS44の処理を完了すると、本フローを抜けて処理を終了する。なお、CPU22は、アドバイス表示を行なった後、データ量が足りなかったり取得したデータがまだ変化していたりすることにより、ユーザの顔の撮像を続ける必要がある場合には、ステップS35に処理を戻して、再度の撮像処理から処理を繰り返してもよい。   Then, when completing the process of step S44, the CPU 22 exits this flow and ends the process. Note that the CPU 22 performs the process in step S35 when it is necessary to continue imaging the face of the user because the amount of data is insufficient or the acquired data is still changing after the advice display is performed. The processing may be repeated after returning to the imaging process.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 携帯端末、12 ディスプレイ、14 タッチパネル、16 内蔵カメラ、18 マイク、20 生体センサ、22 CPU、24 GPSモジュール、26 温度計、28 カレンダー部、30 不揮発性メモリ、32 音声解析部、34 画像分析部、36 通信部、42 顔認識部、44 表情検出部、46 服装検出部、50 ミラーフィルム、52 バックライト、54 顔分析部 DESCRIPTION OF SYMBOLS 10 Mobile terminal, 12 Display, 14 Touch panel, 16 Built-in camera, 18 Microphone, 20 Biosensor, 22 CPU, 24 GPS module, 26 Thermometer, 28 Calendar part, 30 Non-volatile memory, 32 Voice analysis part, 34 Image analysis part 36 Communication unit 42 Face recognition unit 44 Expression detection unit 46 Clothing detection unit 50 Mirror film 52 Backlight 54 Face analysis unit

Claims (12)

表示を行なう表示部と、
前記表示部が表示をしていない場合においてユーザを撮像する撮像部と、
前記表示部が表示をしていない場合において前記ユーザの状態を検出する検出部と、
を備える電子機器。
A display unit for displaying;
An imaging unit for imaging a user when the display unit is not displaying;
A detection unit for detecting the state of the user when the display unit is not displaying;
Electronic equipment comprising.
ミラーが設けられた前記表示部を照明可能な照明部を備え、
前記照明部が前記表示部を照明していない場合において、前記撮像部の撮像と前記検出部との検出との少なくとも一方が行われる請求項1に記載の電子機器。
An illumination unit capable of illuminating the display unit provided with a mirror;
The electronic device according to claim 1, wherein at least one of imaging by the imaging unit and detection by the detection unit is performed when the illumination unit does not illuminate the display unit.
前記ユーザの操作を受け付ける操作部を備え、
前記表示部が前記操作部の操作に関連した情報を表示していない場合において、前記撮像部の撮像と前記検出部との検出との少なくとも一方が行われる
請求項1または2に記載の電子機器。
An operation unit that receives the user's operation;
3. The electronic apparatus according to claim 1, wherein at least one of imaging by the imaging unit and detection by the detection unit is performed when the display unit does not display information related to operation of the operation unit. .
前記検出部は、前記撮像部の撮像に基づき前記ユーザの身なりに関する情報を検出する請求項1から3の何れか一項に記載の電子機器。   The electronic device according to any one of claims 1 to 3, wherein the detection unit detects information related to the appearance of the user based on imaging of the imaging unit. 前記検出部は、前記撮像部の撮像に基づき前記ユーザの表情を検出する請求項1から4のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein the detection unit detects the facial expression of the user based on imaging of the imaging unit. 前記検出部は、前記撮像部の撮像に基づき前記ユーザの顔の色に関する情報を検出する請求項1から5のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein the detection unit detects information related to a face color of the user based on imaging of the imaging unit. 前記検出部は、前記ユーザの生体情報を検出する請求項1から6のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein the detection unit detects biological information of the user. 前記検出部の検出結果に関連する情報を前記表示部に表示する請求項1から7のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein information related to a detection result of the detection unit is displayed on the display unit. 前記検出部の検出結果を記憶する第1記憶部を備える請求項1から8のいずれか一項に記載の電子機器。   The electronic device according to claim 1, further comprising a first storage unit that stores a detection result of the detection unit. 前記ユーザの購入履歴に関するデータを記憶する第2記憶部を備える
請求項1から9のいずれか一項に記載の電子機器。
The electronic device according to claim 1, further comprising a second storage unit that stores data relating to the purchase history of the user.
情報を表示部に表示する表示ステップと、
前記表示部が情報を表示していない場合においてユーザを撮像する撮像ステップと、
前記表示部が表示をしていない場合において前記ユーザの状態を検出する状態検出ステップと、
を備える情報処理方法。
A display step for displaying information on the display unit;
An imaging step of imaging the user when the display unit does not display information;
A state detecting step of detecting the state of the user when the display unit is not displaying;
An information processing method comprising:
情報を表示部に表示する表示ステップと、
前記表示部が情報を表示していない場合においてユーザを撮像する撮像ステップと、
前記表示部が表示をしていない場合において前記ユーザの状態を検出する状態検出ステップと、
をコンピュータに実行させるためのプログラム。
A display step for displaying information on the display unit;
An imaging step of imaging the user when the display unit does not display information;
A state detecting step of detecting the state of the user when the display unit is not displaying;
A program that causes a computer to execute.
JP2011267649A 2011-12-07 2011-12-07 Electronic device, information processing method and program Active JP5929145B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2011267649A JP5929145B2 (en) 2011-12-07 2011-12-07 Electronic device, information processing method and program
US14/354,738 US20140330684A1 (en) 2011-12-07 2012-10-11 Electronic device, information processing method and program
PCT/JP2012/006534 WO2013084395A1 (en) 2011-12-07 2012-10-11 Electronic device, information processing method and program
CN201410440390.4A CN104156870A (en) 2011-12-07 2012-10-11 Mobile terminal control method and mobile terminal
IN3367DEN2014 IN2014DN03367A (en) 2011-12-07 2012-10-11
CN201280060250.3A CN103975291A (en) 2011-12-07 2012-10-11 Electronic device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011267649A JP5929145B2 (en) 2011-12-07 2011-12-07 Electronic device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2013120468A true JP2013120468A (en) 2013-06-17
JP5929145B2 JP5929145B2 (en) 2016-06-01

Family

ID=48773085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011267649A Active JP5929145B2 (en) 2011-12-07 2011-12-07 Electronic device, information processing method and program

Country Status (1)

Country Link
JP (1) JP5929145B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191157A (en) * 2012-03-15 2013-09-26 Pioneer Electronic Corp Mobile object control apparatus and mobile object loading device
JP2018185830A (en) * 2013-10-30 2018-11-22 アップル インコーポレイテッドApple Inc. Displaying relevant user interface object
US10732821B2 (en) 2007-01-07 2020-08-04 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US10739974B2 (en) 2016-06-11 2020-08-11 Apple Inc. Configuring context-specific user interfaces
US10748153B2 (en) 2014-05-29 2020-08-18 Apple Inc. User interface for payments
US10778828B2 (en) 2006-09-06 2020-09-15 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US10788953B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders
US10860199B2 (en) 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
US10884579B2 (en) 2005-12-30 2021-01-05 Apple Inc. Portable electronic device with interface reconfiguration mode
US10914606B2 (en) 2014-09-02 2021-02-09 Apple Inc. User interactions for a mapping application
US10972600B2 (en) 2013-10-30 2021-04-06 Apple Inc. Displaying relevant user interface objects
US11281368B2 (en) 2010-04-07 2022-03-22 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US11321731B2 (en) 2015-06-05 2022-05-03 Apple Inc. User interface for loyalty accounts and private label accounts
US11604559B2 (en) 2007-09-04 2023-03-14 Apple Inc. Editing interface
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
US11783305B2 (en) 2015-06-05 2023-10-10 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155749A (en) * 1996-12-04 1998-06-16 Hiyuunet Kk System for monitoring and informing about human health condition
JP2002271457A (en) * 2001-03-08 2002-09-20 Kumiko Nishioka Portable device using semitransparent mirror capable of using its screen as mirror
JP3094091U (en) * 2002-11-15 2003-05-30 株式会社テラ・マトリックス Display device for mobile phone and mobile phone
JP2004081285A (en) * 2002-08-23 2004-03-18 Citizen Watch Co Ltd Portable type blood pressure measuring instrument
JP2005030861A (en) * 2003-07-10 2005-02-03 Casio Comput Co Ltd Device and program for person management
JP2005046305A (en) * 2003-07-28 2005-02-24 Sony Corp Conversation assisting device, conversation assisting system, conversation assisting method, information transmitting device, information transmitting system, information transmitting method, controlling device, controlling system, and controlling method
JP3110219U (en) * 2005-01-18 2005-06-16 勝康 小野 GPS security watch cell phone with detachable sensor and fisheye lens
JP2006110361A (en) * 2004-10-14 2006-04-27 Samsung Electronics Co Ltd Measuring device for calorie consumption and method for the same
WO2010059513A2 (en) * 2008-11-19 2010-05-27 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
JP2011524719A (en) * 2008-06-16 2011-09-01 クゥアルコム・インコーポレイテッド Method and system for configuring mobile devices using sensors
JP2011170637A (en) * 2010-02-18 2011-09-01 Nikon Corp Information processor
JP2011193281A (en) * 2010-03-15 2011-09-29 Nikon Corp Portable device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155749A (en) * 1996-12-04 1998-06-16 Hiyuunet Kk System for monitoring and informing about human health condition
JP2002271457A (en) * 2001-03-08 2002-09-20 Kumiko Nishioka Portable device using semitransparent mirror capable of using its screen as mirror
JP2004081285A (en) * 2002-08-23 2004-03-18 Citizen Watch Co Ltd Portable type blood pressure measuring instrument
JP3094091U (en) * 2002-11-15 2003-05-30 株式会社テラ・マトリックス Display device for mobile phone and mobile phone
JP2005030861A (en) * 2003-07-10 2005-02-03 Casio Comput Co Ltd Device and program for person management
JP2005046305A (en) * 2003-07-28 2005-02-24 Sony Corp Conversation assisting device, conversation assisting system, conversation assisting method, information transmitting device, information transmitting system, information transmitting method, controlling device, controlling system, and controlling method
JP2006110361A (en) * 2004-10-14 2006-04-27 Samsung Electronics Co Ltd Measuring device for calorie consumption and method for the same
JP3110219U (en) * 2005-01-18 2005-06-16 勝康 小野 GPS security watch cell phone with detachable sensor and fisheye lens
JP2011524719A (en) * 2008-06-16 2011-09-01 クゥアルコム・インコーポレイテッド Method and system for configuring mobile devices using sensors
WO2010059513A2 (en) * 2008-11-19 2010-05-27 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
JP2011170637A (en) * 2010-02-18 2011-09-01 Nikon Corp Information processor
JP2011193281A (en) * 2010-03-15 2011-09-29 Nikon Corp Portable device

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10915224B2 (en) 2005-12-30 2021-02-09 Apple Inc. Portable electronic device with interface reconfiguration mode
US11650713B2 (en) 2005-12-30 2023-05-16 Apple Inc. Portable electronic device with interface reconfiguration mode
US11449194B2 (en) 2005-12-30 2022-09-20 Apple Inc. Portable electronic device with interface reconfiguration mode
US10884579B2 (en) 2005-12-30 2021-01-05 Apple Inc. Portable electronic device with interface reconfiguration mode
US11736602B2 (en) 2006-09-06 2023-08-22 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US10778828B2 (en) 2006-09-06 2020-09-15 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US11240362B2 (en) 2006-09-06 2022-02-01 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US10732821B2 (en) 2007-01-07 2020-08-04 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US11586348B2 (en) 2007-01-07 2023-02-21 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US11169691B2 (en) 2007-01-07 2021-11-09 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US11604559B2 (en) 2007-09-04 2023-03-14 Apple Inc. Editing interface
US11809700B2 (en) 2010-04-07 2023-11-07 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US11500516B2 (en) 2010-04-07 2022-11-15 Apple Inc. Device, method, and graphical user interface for managing folders
US10788953B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders
US11281368B2 (en) 2010-04-07 2022-03-22 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
JP2013191157A (en) * 2012-03-15 2013-09-26 Pioneer Electronic Corp Mobile object control apparatus and mobile object loading device
US11316968B2 (en) 2013-10-30 2022-04-26 Apple Inc. Displaying relevant user interface objects
US10972600B2 (en) 2013-10-30 2021-04-06 Apple Inc. Displaying relevant user interface objects
JP2018185830A (en) * 2013-10-30 2018-11-22 アップル インコーポレイテッドApple Inc. Displaying relevant user interface object
US10796309B2 (en) 2014-05-29 2020-10-06 Apple Inc. User interface for payments
US10977651B2 (en) 2014-05-29 2021-04-13 Apple Inc. User interface for payments
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
US10902424B2 (en) 2014-05-29 2021-01-26 Apple Inc. User interface for payments
US10748153B2 (en) 2014-05-29 2020-08-18 Apple Inc. User interface for payments
US11733055B2 (en) 2014-09-02 2023-08-22 Apple Inc. User interactions for a mapping application
US10914606B2 (en) 2014-09-02 2021-02-09 Apple Inc. User interactions for a mapping application
US11734708B2 (en) 2015-06-05 2023-08-22 Apple Inc. User interface for loyalty accounts and private label accounts
US11321731B2 (en) 2015-06-05 2022-05-03 Apple Inc. User interface for loyalty accounts and private label accounts
US11783305B2 (en) 2015-06-05 2023-10-10 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US11073799B2 (en) 2016-06-11 2021-07-27 Apple Inc. Configuring context-specific user interfaces
US10739974B2 (en) 2016-06-11 2020-08-11 Apple Inc. Configuring context-specific user interfaces
US11733656B2 (en) 2016-06-11 2023-08-22 Apple Inc. Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US10860199B2 (en) 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets

Also Published As

Publication number Publication date
JP5929145B2 (en) 2016-06-01

Similar Documents

Publication Publication Date Title
JP5929145B2 (en) Electronic device, information processing method and program
WO2013084395A1 (en) Electronic device, information processing method and program
KR102354428B1 (en) Wearable apparatus and methods for analyzing images
CN105573573B (en) Apparatus and method for managing user information based on image
EP3321787B1 (en) Method for providing application, and electronic device therefor
US20180285641A1 (en) Electronic device and operation method thereof
WO2013128715A1 (en) Electronic device
KR102606689B1 (en) Method and apparatus for providing biometric information in electronic device
KR20160037074A (en) Image display method of a apparatus with a switchable mirror and the apparatus
US11157988B2 (en) System and method for fashion recommendations
US20120236105A1 (en) Method and apparatus for morphing a user during a video call
CN111161035A (en) Dish recommendation method and device, server, electronic equipment and storage medium
JP2019056970A (en) Information processing device, artificial intelligence selection method and artificial intelligence selection program
CN108132983A (en) The recommendation method and device of clothing matching, readable storage medium storing program for executing, electronic equipment
JP2013120473A (en) Electronic device, information processing method, and program
JP2013140574A (en) Electronic apparatus, information processing method, and program
CN112204539A (en) Adaptive search using social graph information
JP2013207407A (en) Electronic device
JPWO2020059263A1 (en) Image proposal device, image proposal method and image proposal program
JP2013182422A (en) Electronic device
JP2013183289A (en) Electronic device
CN106557753A (en) The method and device of output prompting
US20230359320A1 (en) Techniques For Adjusting A Detachable Display Capsule Of A Wrist-Wearable Device To Operationally Complement A Wearable-Structure Attachment, And Wearable Devices And Systems For Performing Those Techniques
JP6601457B2 (en) Electronics
JP2014002463A (en) Electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R150 Certificate of patent or registration of utility model

Ref document number: 5929145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250