JP6670677B2 - Technical support apparatus, method, program and system - Google Patents
Technical support apparatus, method, program and system Download PDFInfo
- Publication number
- JP6670677B2 JP6670677B2 JP2016101960A JP2016101960A JP6670677B2 JP 6670677 B2 JP6670677 B2 JP 6670677B2 JP 2016101960 A JP2016101960 A JP 2016101960A JP 2016101960 A JP2016101960 A JP 2016101960A JP 6670677 B2 JP6670677 B2 JP 6670677B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- presentation
- user
- feature point
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明の実施形態は、技術支援装置、方法、プログラムおよびシステムに関する。 Embodiments of the present invention relate to a technical support device, a method, a program, and a system.
ユーザは、スマートフォンやタブレット等の端末上のアプリケーションやwebコンテンツを参考にしながら作業及び技術を行うことがある。 A user may perform work and technology while referring to an application or web content on a terminal such as a smartphone or a tablet.
例えば、ユーザがメイクを行う場合は、スマートフォンやタブレット等の端末を用いて、インターネット上の動画やイラストを参考にすることが多い。
従来技術として、ユーザによる端末の操作により選択された情報を取得する技術や、ユーザが手を挙げる、振る等の明示的なジェスチャを行うのを契機に、情報を取得する技術が存在する(例えば非特許文献1参照)。
For example, when a user performs makeup, a user often refers to a video or illustration on the Internet using a terminal such as a smartphone or a tablet.
As a conventional technique, there is a technique for acquiring information selected by a user's operation of a terminal, and a technique for acquiring information when a user performs an explicit gesture such as raising or shaking a hand (for example, Non-Patent Document 1).
しかしながら、ユーザがメイク道具を持ちメイクを行うのと並行して、メイクするテーマやパーツを選択する等のために、当該ユーザが端末を操作することは困難である。 However, it is difficult for the user to operate the terminal in order to select a theme or a part to be made in parallel with the user carrying the makeup with the makeup tool.
また、上記のように、ユーザがメイク道具を持ちメイクを行うのと並行して、情報を取得するために、当該ユーザが上記のように端末を操作したりジェスチャを行うことは困難である。 In addition, as described above, it is difficult for the user to operate the terminal and perform the gesture as described above in order to acquire information in parallel with the user holding the makeup tool and performing makeup.
したがって、従来技術では、ユーザが作業を行う際に適切な技術支援を行うことができなかった。 Therefore, in the related art, it is not possible for the user to provide appropriate technical support when performing the work.
この発明は上記事情に着目してなされたもので、その目的とするところは、ユーザが作業を行う際に適切な技術支援を行うことができる技術支援装置、方法、プログラムおよびシステムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technical support device, a method, a program, and a system capable of performing appropriate technical support when a user performs work. It is in.
上記目的を達成するために、この発明の第1の観点に係る技術支援装置は、ユーザを含む処理対象に関する画像である対象画像を取得する画像取得手段と、前記取得した対象画像から特徴点情報を検出する特徴点検出手段と、前記検出した特徴点情報を格納する特徴点情報格納手段と、前記格納した特徴点情報のフレーム間の差分情報を抽出する差分抽出手段と、前記処理対象に対する前記ユーザの作業のテーマを示すテーマ情報を選択するテーマ選択手段と、前記ユーザに対する提示情報を格納する提示情報格納手段と、前記差分情報および前記選択した前記テーマ情報に基づいて、前記ユーザによる作業前から作業後までを含む複数の段階のそれぞれに係る状況のうち、前記作業に係る現在の状況を認識する状況認識手段と、前記差分情報および前記選択したテーマ情報に基づいて、前記処理対象に対してユーザが作業する部分である対象領域を認識する対象領域認識手段と、前記差分情報に基づいて、前記ユーザの動作を認識する動作認識手段と、前記差分抽出手段により前記差分情報が抽出された場合に、前記状況認識手段による認識の結果、前記対象領域認識手段により認識した前記対象領域の情報、および前記動作認識手段による認識の結果に基づいて、前記提示情報格納手段に格納される提示情報から前記ユーザへの提示情報を取得する提示情報取得手段と、前記取得した提示情報に対して所定の処理を施した情報を生成する提示情報生成手段と、提示内容ごとに、前記提示情報を提示するタイミングに関する情報を格納する提示タイミング格納手段と、前記提示情報生成手段により生成された情報をもとに、前記提示タイミング格納手段から前記提示情報を提示するタイミングに関する情報を取得し、この情報をもとに、所定の処理を施した提示情報を出力装置に出力する提示タイミング制御手段とを含む。 In order to achieve the above object, a technical support apparatus according to a first aspect of the present invention includes an image acquisition unit that acquires a target image that is an image relating to a processing target including a user, and feature point information from the acquired target image. a feature point detection means for detecting a feature point information storage means for storing the detected feature point information, and the difference extracting means for extracting the difference information between frames of said stored the feature point information, the relative said processed Theme selection means for selecting theme information indicating the theme of the work of the user, presentation information storage means for storing presentation information for the user, and before the work by the user based on the difference information and the selected theme information. of the situation according to each of a plurality of steps up to and including post-work from the situation recognition means for recognizing a current situation according to the working, the difference information And based on the selected theme information, and recognizing the target region recognizing means an object region which is a part for the user to work on the processing target, based on the difference information, motion recognition recognizes an operation of the user Means, when the difference information is extracted by the difference extracting means, a result of recognition by the situation recognizing means, information of the target area recognized by the target area recognizing means, and a result of recognition by the action recognizing means. A presentation information acquisition unit that acquires presentation information to the user from presentation information stored in the presentation information storage unit, and a presentation that generates information obtained by performing predetermined processing on the acquired presentation information based on Information generation means, presentation timing storage means for storing information on the timing of presenting the presentation information for each presentation content, and the presentation information Based on the information generated by the generating means, obtains information on the timing of presenting the presentation information from the presentation timing storage means, and based on this information, presents the presentation information subjected to predetermined processing to the output device. Output timing control means.
さらに、この発明の第2の観点に係る技術支援装置は、第1の観点において、前記特徴点検出手段は、前記対象画像の特徴点情報を抽出し、前記ユーザが参考とする作業の状況を示す状況情報を格納する参考状態格納手段をさらに有し、前記状況認識手段は、前記特徴点情報および前記状況情報に基づいて、前記ユーザの作業の状況を判定する状況判定手段を有する。 Further, in the technical support device according to a second aspect of the present invention, in the first aspect, the feature point detection unit extracts feature point information of the target image and determines a work situation referred to by the user. The information processing apparatus further includes a reference state storage unit that stores the indicated situation information, and the situation recognition unit includes a situation determination unit that determines a work situation of the user based on the feature point information and the situation information.
さらに、この発明の第3の観点に係る技術支援装置は、第1の観点において、前記処理対象は、前記ユーザが作業に用いる道具を含み、前記特徴点検出手段は、前記対象画像の特徴点情報を抽出し、前記差分抽出手段は、前記特徴点情報に基づく前記差分情報を抽出し、前記ユーザが作業に用いる道具、および、前記道具を用いた作業の対象である対象領域の関係を示す道具情報を格納する道具情報格納手段をさらに備え、前記対象領域認識手段は、前記特徴点情報に基づいて前記道具を用いた作業の対象である対象領域を取得する対象領域取得手段と、前記特徴点情報に基づく前記差分情報および前記道具情報に基づいて、前記道具を用いた作業の対象である対象領域および前記道具の情報を取得する道具認識手段と、前記対象領域取得手段により取得した前記対象領域および前記道具認識手段により取得した前記対象領域および前記道具の情報の判定を行い、判定結果を前記対象領域認識手段による認識の結果として出力する対象領域判定手段とをさらに有する。 Further, in the technical support device according to a third aspect of the present invention, in the first aspect, the processing target includes a tool used by the user for work, and the feature point detecting unit includes a feature point of the target image. Information, and the difference extraction unit extracts the difference information based on the feature point information, and indicates a relationship between a tool used by the user for work and a target area that is a target of work using the tool. Tool information storing means for storing tool information, wherein the target area recognizing means obtains a target area that is a target of work using the tool based on the feature point information; based on the difference information and the tool information based on the point information, and tools recognition means for obtaining information of the target area and the tool is a work object with the tool, the target region acquisition hand And a target area determining unit that determines information of the target area and the tool obtained by the target area and the tool recognizing unit obtained by the above, and outputs a determination result as a result of recognition by the target area recognizing unit. .
さらに、この発明の第4の観点に係る技術支援装置は、第2の観点において、前記参考状態格納手段は、前記テーマの種別ごとに前記状況情報を格納し、前記状況判定手段は、前記テーマ選択手段により選択したテーマ情報、前記特徴点情報に基づく前記差分情報、および前記状況情報に基づいて、前記テーマ選択手段により選択したテーマ情報にかかわる、前記ユーザの作業の状況を判定する。 Further, in a technical support apparatus according to a fourth aspect of the present invention, in the second aspect, the reference state storage means stores the status information for each type of the theme, and the status determination means includes Based on the theme information selected by the selection means, the difference information based on the feature point information, and the situation information, a status of the user's work related to the theme information selected by the theme selection means is determined.
さらに、この発明の第5の観点に係る技術支援装置は、第3の観点において、前記道具情報格納手段は、前記テーマの種別ごとに前記道具情報を格納し、前記対象領域取得手段は、前記テーマ選択手段により選択したテーマ情報および前記特徴点情報に基づく前記差分情報に基づいて前記対象領域を取得し、前記道具認識手段は、前記テーマ選択手段により選択したテーマ情報、前記特徴点情報に基づく前記差分情報、に基づいて、前記対象領域および前記道具の情報を取得する。 Further, in a technical support apparatus according to a fifth aspect of the present invention, in the third aspect, the tool information storage unit stores the tool information for each type of the theme, and the target area obtaining unit includes The target area is obtained based on the theme information selected by the theme selecting means and the difference information based on the feature point information, and the tool recognizing means is based on the theme information and the feature point information selected by the theme selecting means. The information of the target area and the tool is acquired based on the difference information.
すなわちこの発明によれば、ユーザが作業を行う際に適切な技術支援を行うことができる。 That is, according to the present invention, it is possible to provide appropriate technical support when a user performs an operation.
以下、図面を参照しながら本開示の一実施形態に係る技術支援装置、方法、プログラムおよびシステムについて詳細に説明する。なお、以下の実施形態では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。
本発明は、画像情報を用いて、ユーザのメイクしている状況を認識し、ユーザの状況に応じた情報提示を行うものである。
Hereinafter, a technical support device, a method, a program, and a system according to an embodiment of the present disclosure will be described in detail with reference to the drawings. In the following embodiments, the same operation is performed for the parts with the same numbers, and the overlapping description will be omitted.
The present invention recognizes a situation where a user is making makeup by using image information and presents information according to the situation of the user.
本発明により、ユーザによる明示的なジェスチャがなくても、ユーザの自然なメイクの所作から画像情報を用いてユーザの状況を認識(または予測)ができる。 ADVANTAGE OF THE INVENTION According to this invention, a user's situation can be recognized (or predicted) using image information from a user's natural makeup operation, without an explicit gesture by a user.
また、ユーザは、端末の操作やジェスチャをしなくても、上記の状況に応じた情報を取得することができる。
また、ユーザは、端末の操作やジェスチャをしなくても、メイク以外の生活に必要な情報を能動的に受け取ることができる。
Further, the user can acquire information according to the above-mentioned situation without operating the terminal or performing a gesture.
In addition, the user can actively receive information necessary for a life other than makeup without operating the terminal or performing a gesture.
図1は、本発明の実施形態における技術支援装置の一例を示すブロック図である。
図1に示すように、技術支援装置10は、画像取得部11、特徴点検出部12、差分抽出部13、特徴点情報格納部14、テーマ選択部15、状況認識部16、対象領域認識部17、動作認識部18、提示情報取得部19、提示情報格納部20、提示情報生成部21、提示タイミング制御部22、提示タイミング格納部23を有する。
FIG. 1 is a block diagram illustrating an example of a technical support device according to an embodiment of the present invention.
As shown in FIG. 1, the technical support device 10 includes an image acquisition unit 11, a feature point detection unit 12, a difference extraction unit 13, a feature point information storage unit 14, a theme selection unit 15, a situation recognition unit 16, and a target area recognition unit. 17, a motion recognition unit 18, a presentation information acquisition unit 19, a presentation information storage unit 20, a presentation information generation unit 21, a presentation timing control unit 22, and a presentation timing storage unit 23.
画像取得部11は、カメラ30が撮影して得た、処理対象に関する画像(対象画像ともいう)画像を取得する。カメラ30は、図1に示すように技術支援装置10の外部に存在してもよいし、技術支援装置10に内蔵されていてもよい。画像取得部11は、取得した画像に対して、補正処理などの前処理を行う。画像取得部11は、この処理を施した画像を特徴点検出部12に出力する。 The image obtaining unit 11 obtains an image (also referred to as a target image) related to a processing target obtained by shooting with the camera 30. The camera 30 may exist outside the technical support device 10 as shown in FIG. 1, or may be built in the technical support device 10. The image acquisition unit 11 performs pre-processing such as a correction process on the acquired image. The image acquisition unit 11 outputs the image subjected to this processing to the feature point detection unit 12.
具体的には、補正処理としては、画像の解像度の大きさを調整する処理、画像中の影を除去する処理、画像中の対象領域(ユーザの部位またはパーツ)に他の物体(手やメイク道具等)が重なってしまったときに物体の除去を行う処理、背景抽出などによる画像中の検出の対象となる領域を限定する処理、左右を反転する処理等が挙げられる。ここでは、カメラ30により処理対象への作業経過を撮像し続けることを想定し、画像取得部11が、一定の間隔、例えば30〜60ms程度の間隔で画像の各フレームを取得すると想定する。 Specifically, the correction process includes a process of adjusting the resolution of the image, a process of removing a shadow in the image, and a process of removing another object (such as a hand or makeup) from a target region (a user's part or part) in the image. (A tool, etc.), a process of removing an object when they overlap, a process of limiting an area to be detected in an image by background extraction, a process of inverting left and right, and the like. Here, it is assumed that the camera 30 continues to capture the progress of the work on the processing target, and that the image acquisition unit 11 acquires each frame of the image at a fixed interval, for example, an interval of about 30 to 60 ms.
特徴点検出部12は、画像取得部11から対象画像(または前処理された対象画像)を受け取る。特徴点検出部12は、この対象画像の各フレームから特徴点情報を検出する。特徴点情報とは、対象画像と、この対象画像における特徴点の位置関係、色に関する情報を含む。 The feature point detection unit 12 receives a target image (or a preprocessed target image) from the image acquisition unit 11. The feature point detection unit 12 detects feature point information from each frame of the target image. The feature point information includes a target image, and information on a positional relationship and a color of the feature point in the target image.
特徴点検出部12は、同じ対象画像から検出した特徴点情報を、差分抽出部13に出力する。 The feature point detection unit 12 outputs feature point information detected from the same target image to the difference extraction unit 13.
次に、特徴点情報の詳細について説明する。
メイクの場合、特徴点情報とは、一般的な特徴点情報と顔特徴点情報の2つが考えられる。今回の場合、一般的な特徴点情報は、顔特徴点情報と区別され、顔特徴点情報と重複しないものとする。顔特徴点情報とは、対象画像と、この対象画像における処理領域との位置関係、色に関する情報を含む。処理領域は、処理対象に対してユーザが作業する部分であり、部位またはパーツともいう。顔のパーツは、例えば左眉毛、右眉毛、左目、右目、鼻、口、左頬、右頬など、顔を印象付けるパーツが挙げられる。
図2は、本発明の実施形態における技術支援装置が抽出する特徴点情報の構成を表形式で示す図である。
特徴点検出部12は、取得した画像について、Harrisa法やKLT法等の特徴点検出方法を用いて特徴点情報を導出する。この図2に示すように、特徴点情報は、特徴点座標p_aと、色(実測値)c_aが対応付けられる。また、特徴点座標p_aは、2次元だけでなく、1次元座標から3次元座標までのいずれかを想定しているが、さらに高次元の座標も同様に用いることができる。色(実測値)c_aとは、1ピクセルごとのRGB値やRGBA値、HSV値、または、領域内の全ピクセルにおけるRGB値やRGBA値、HSV値の平均値が考えられるが、色が指定できる値であればどのような情報でもよい。後述する色(実測値)c_bなどのその他の色の情報についても同様である。
Next, details of the feature point information will be described.
In the case of makeup, the feature point information may be general feature point information or face feature point information. In this case, general feature point information is distinguished from face feature point information, and does not overlap with face feature point information. The face feature point information includes information on a positional relationship between a target image and a processing region in the target image, and color. The processing area is a part where the user works on the processing target, and is also called a part or a part. The parts of the face include parts that impress the face such as left eyebrow, right eyebrow, left eye, right eye, nose, mouth, left cheek, and right cheek.
FIG. 2 is a diagram illustrating, in a table form, a configuration of feature point information extracted by the technical support device according to the embodiment of the present invention.
The feature point detection unit 12 derives feature point information from the acquired image using a feature point detection method such as the Harrisa method or the KLT method. As shown in FIG. 2, in the feature point information, feature point coordinates p_a are associated with colors (actually measured values) c_a. In addition, the feature point coordinates p_a are assumed to be not only two-dimensional but also one-dimensional coordinates to three-dimensional coordinates, but higher-dimensional coordinates can be used similarly. The color (actually measured value) c_a may be an RGB value, an RGBA value, an HSV value for each pixel, or an average value of the RGB values, the RGBA values, and the HSV values of all the pixels in the area. Any information may be used as long as it is a value. The same applies to other color information such as a color (actually measured value) c_b to be described later.
特徴点検出部12は、Viola-Jonesの方法等の顔検出方法を用いて、画像における顔特徴点情報を取得する。図3は、本発明の実施形態における技術支援装置が抽出する顔特徴点情報の構成を表形式で示す図である。図3に示すように、顔特徴点情報は、部位ID、特徴点座標p_b、色(実測値)c_bが対応付けられる。部位IDは、例えばユーザの顔のパーツを一意に識別するための識別子である。 FEATURES point detecting unit 12 uses the face detection method of a method such as a Viola-Jones, acquires the face feature point information in the image. FIG. 3 is a diagram showing, in a table form, a configuration of face feature point information extracted by the technical support device according to the embodiment of the present invention. As shown in FIG. 3, the face feature point information is associated with a part ID, feature point coordinates p_b, and a color (actually measured value) c_b. The part ID is, for example, an identifier for uniquely identifying a part of the user's face.
特徴点検出部12は、特徴点検出において補正処理を行っても良い。具体的には、顔を正面にする処理、画像中の対象領域に手や影等の物体が重なってしまったときに物体の除去を行う処理、黒子や傷を消す処理、顔以外の部分をトリミングする処理等が挙げられる。 The feature point detection unit 12 may perform a correction process in feature point detection. More specifically, processing to bring the face to the front, processing to remove the object when an object such as a hand or shadow overlaps the target area in the image, processing to erase moles and scratches, processing other than the face There is a trimming process.
差分抽出部13は、特徴点検出部12から特徴点情報を取得する。差分抽出部13は、差分を抽出すると、提示情報取得部19、提示情報格納部20に作業開始信号を出力する。差分抽出部13は、取得した特徴点情報を特徴点情報格納部14に格納する。
差分抽出部13は、特徴点情報格納部14に格納される、時系列で隣接する各フレームの特徴点情報から差分情報を取得する。差分情報は、差分値とその位置を表した情報を含む。特徴点情報格納部14には、時系列で連続する例えば10前後のフレームが格納され、古いフレームから順次上書きされる。
The difference extraction unit 13 acquires feature point information from the feature point detection unit 12. Upon extracting the difference, the difference extracting unit 13 outputs a work start signal to the presentation information acquisition unit 19 and the presentation information storage unit 20. The difference extraction unit 13 stores the acquired feature point information in the feature point information storage unit 14.
The difference extracting unit 13 acquires difference information from the feature point information of each frame adjacent in time series stored in the feature point information storage unit 14. The difference information includes a difference value and information indicating the position. The feature point information storage unit 14 stores, for example, about 10 consecutive frames in time series, and overwrites the oldest frames sequentially.
差分抽出部13は、取得した差分情報を対象領域認識部17に出力する。また、差分抽出部13は、取得した差分情報を状況認識部16および対象領域認識部17に出力する。 The difference extraction unit 13 outputs the acquired difference information to the target area recognition unit 17. Further, the difference extracting unit 13 outputs the acquired difference information to the situation recognizing unit 16 and the target area recognizing unit 17.
次に、差分情報の詳細について説明する。 Next, details of the difference information will be described.
メイクの場合、差分情報とは、一般的な特徴点情報に基づいて抽出した差分情報と、顔特徴点情報に基づいて抽出した顔の差分情報がある。図4は、本発明の実施形態における技術支援装置が顔特徴点情報から得た顔差分情報の一例を表形式で示す図である。図4に示すように、差分抽出部13が顔特徴点情報から得た顔差分情報は、部位ID、特徴点座標(実測値)p_b、色(実測値)c_b、差分値d_bが対応付けられる。
差分抽出部13は、最新のフレームに関する色情報と、最新のフレームのよりも前のフレームに関する色情報とを比較し、2値の差や最小二乗法等を用いて、上記の顔差分情報における差分値d_bを算出する。差分値d_bは1ピクセル単位でもある領域の平均値でも構わない。また、顔差分情報や差分情報は、1フレーム同士の色の差分値に限らず、例えば画像の状態(一時的な光の照り返し等)の変化に対応できるように、複数フレーム同士の色の差分の平均値等であってもよい。
In the case of makeup, the difference information includes difference information extracted based on general feature point information and face difference information extracted based on face feature point information. FIG. 4 is a diagram illustrating, in a table format, an example of face difference information obtained from the face feature point information by the technical support device according to the embodiment of the present invention. As shown in FIG. 4, the face difference information obtained from the face feature point information by the difference extraction unit 13 is associated with a part ID, feature point coordinates (actual measurement value) p_b, color (actual measurement value) c_b, and difference value d_b. .
The difference extracting unit 13 compares the color information on the latest frame with the color information on a frame earlier than the latest frame, and uses the binary difference, the least squares method, or the like to calculate the above-mentioned face difference information. Calculate the difference value d_b. The difference value d_b may be an average value of a region which is also a unit of one pixel. Further, the face difference information and the difference information are not limited to the color difference value between one frame, and may be, for example, a color difference value between a plurality of frames so as to be able to cope with a change in an image state (temporary reflection of light, etc.). Or the average value of
図5は、本発明の実施形態における技術支援装置が特徴点情報から得た差分情報の一例を表形式で示す図である。図5に示すように、差分抽出部13が特徴点情報から得た差分情報は、図4に示す、顔特徴点から得た顔差分情報の部位IDを含まず、特徴点座標(実測値)p_a、色(実測値)c_a、差分値d_aが対応付けられる。 FIG. 5 is a diagram illustrating, in a table form, an example of difference information obtained from the feature point information by the technical support device according to the embodiment of the present invention. As shown in FIG. 5, the difference information obtained by the difference extraction unit 13 from the feature point information does not include the part ID of the face difference information obtained from the face feature point shown in FIG. p_a, color (actually measured value) c_a, and difference value d_a are associated with each other.
特徴点情報格納部14は、いわゆるバッファであり、例えば不揮発性メモリなどの記憶装置で実現でき、1フレームごとに顔特徴点情報や特徴点情報を格納することができる。 The feature point information storage unit 14 is a so-called buffer, and can be realized by a storage device such as a nonvolatile memory, and can store face feature point information and feature point information for each frame.
外部コンテンツDB50は、例えば不揮発性メモリなどの記憶装置で実現でき、メイクに関するコンテンツ(化粧品や美容に関するwebサイト、化粧品会社や美容関連の会社のデータベース、ユーザのメイクについての過去の履歴を保存するアプリケーション等)や、メイクに関係ないコンテンツ(電車の運行状況や天気予報のアプリケーション等)等の外部コンテンツ70と、その外部コンテンツ70のどの情報をどのように使用するかをユーザが事前に選択し、格納したものである。例えば、外部コンテンツ70が化粧品のwebサイトの場合、新商品が発売したという情報がアップデートされたら、その商品の詳細情報や使い方の動画をメイクのアドバイス情報として提示するという情報を外部コンテンツDB50に格納されることが考えられる。また、外部コンテンツ70が天気予報のアプリケーションの場合、天気予報情報がアップデートされたら、メイクアドバイスと合わせて提示するという情報を格納されることが考えられる。外部コンテンツDB50には、この外部コンテンツ70にアクセスするためのURLなどを登録しておけばよい。 The external content DB 50 can be realized by, for example, a storage device such as a non-volatile memory, and stores contents related to makeup (a website related to cosmetics and beauty, a database of a cosmetics company or a company related to beauty, and an application that stores a past history of makeup by a user). The user selects in advance the external content 70 such as content that is not related to makeup (train operation status, weather forecast application, etc.) and which information of the external content 70 is to be used. It is stored. For example, when the external content 70 is a cosmetics web site, when the information that a new product has been released is updated, information that presents detailed information of the product or a video on how to use the product as makeup advice information is stored in the external content DB 50. It is thought that it is done. In the case where the external content 70 is a weather forecast application, information indicating that the weather forecast information is presented together with makeup advice when the weather forecast information is updated may be stored. A URL for accessing the external content 70 may be registered in the external content DB 50.
テーマ選択部15は、例えばタブレットなどの操作端末40によりユーザから指定されたテーマ情報を取得する。操作端末40は技術支援装置10と一体でも構わない。テーマ情報は、作業のカテゴリを示し、メイクの場合、テーマ情報とは、可愛い系や大人っぽい系等、ユーザが参考とするメイクのカテゴリを示す。メイクのテーマのカテゴリは設定値により変更できてもよく、テーマを一意に識別するための識別子をテーマIDとする。テーマ情報は、操作端末40や外部コンテンツDB50から得た情報を元に設定してもよい。例えば、操作端末40に組み込まれている写真等のメディアを保存するアプリケーションで管理される写真、外部コンテンツDB50に登録された外部コンテンツ70の化粧品会社のWebページやSNS上のトレンドメイク、ユーザのお気に入りメイク等からテーマ情報を取得する。 The theme selection unit 15 acquires theme information specified by the user via the operation terminal 40 such as a tablet. The operation terminal 40 may be integrated with the technical support device 10. The theme information indicates a category of work, and in the case of makeup, the theme information indicates a category of makeup that is referred to by the user, such as a cute system or a mature system. The category of the makeup theme may be changed according to the set value, and an identifier for uniquely identifying the theme is set as the theme ID. The theme information may be set based on information obtained from the operation terminal 40 or the external content DB 50. For example, a photo managed by an application for storing media such as a photo incorporated in the operation terminal 40, a trend page on a cosmetics company's web page or SNS of the external content 70 registered in the external content DB 50, a user's favorite Acquire theme information from makeup etc.
図6は、本発明の実施形態における技術支援装置の状況認識部の詳細構成の一例を示すブロック図である。
図6に示すように、状況認識部16は、状況判定部16aと参考状態格納部16bとを含む。
FIG. 6 is a block diagram illustrating an example of a detailed configuration of the situation recognition unit of the technical support device according to the embodiment of the present invention.
As shown in FIG. 6, the situation recognition section 16 includes a situation determination section 16a and a reference state storage section 16b.
テーマ選択部15は、テーマ情報を状況認識部16内の状況判定部16aと、対象領域認識部17内の道具認識部17b、同じく対象領域認識部17内の対象領域取得部17aに出力する。対象領域取得部17a、道具認識部17bについては後述する。 The theme selection unit 15 outputs the theme information to the situation determination unit 16a in the situation recognition unit 16, the tool recognition unit 17b in the target area recognition unit 17, and the target area acquisition unit 17a in the target area recognition unit 17. The target area acquisition unit 17a and the tool recognition unit 17b will be described later.
状況認識部16の状況判定部16aは、差分抽出部13から差分情報を、テーマ選択部15からテーマ情報をそれぞれ取得する。状況判定部16aは、差分情報とテーマ情報とに基づいて、ユーザの作業の状況を判定する。状況判定部16aは、状況の判定結果を提示情報取得部19に出力する。 The situation determination unit 16a of the situation recognition unit 16 acquires difference information from the difference extraction unit 13 and theme information from the theme selection unit 15, respectively. The situation determining unit 16a determines the situation of the user's work based on the difference information and the theme information. The situation determination unit 16a outputs the situation determination result to the presentation information acquisition unit 19.
対象領域認識部17は、差分抽出部13から差分情報を取得する。対象領域認識部17は、取得した差分情報をもとに、画像中の対象領域(ユーザの部位またはパーツ)や使用する道具を認識する。対象領域認識部17は、認識した対象領域や道具を示す情報を提示情報取得部19に出力する。対象領域認識部17の構成や動作の詳細については後述する。 The target area recognition unit 17 obtains difference information from the difference extraction unit 13. The target area recognition unit 17 recognizes a target area (a part or part of the user) in the image and a tool to be used based on the acquired difference information. The target area recognition unit 17 outputs information indicating the recognized target area or tool to the presentation information acquisition unit 19. Details of the configuration and operation of the target area recognition unit 17 will be described later.
また、動作認識部18は、差分抽出部13から差分情報を取得し、これらの差分情報をもとに、画像中のユーザの笑顔やジェスチャ等の広義の動作を認識し、この認識の結果を提示情報取得部19に出力する。 The motion recognition unit 18 obtains difference information from the difference extraction unit 13 and recognizes a broadly-defined motion such as a smile or gesture of the user in the image based on the difference information, and determines a result of the recognition. Output to the presentation information acquisition unit 19.
提示情報格納部20は、例えば不揮発性メモリなどの記憶装置を有し、この記憶装置に以下で述べる提示情報を格納する。提示情報取得部19は、状況認識部16から状況判定結果を、対象領域認識部17から対象領域や道具を示す情報を、差分抽出部13から作業開始信号を、動作認識部18から動作を示す情報をそれぞれ取得する。 The presentation information storage unit 20 has a storage device such as a nonvolatile memory, for example, and stores the presentation information described below in this storage device. The presentation information acquisition unit 19 indicates a situation determination result from the situation recognition unit 16, information indicating a target area or a tool from the target area recognition unit 17, a work start signal from the difference extraction unit 13, and an operation from the action recognition unit 18. Get each information.
提示情報取得部19は、取得した、状況判定結果、対象領域や道具を示す情報、および作業開始信号、動作を示す情報をもとに、状況判定結果、対象領域や道具、動作を示す情報と提示情報格納部20に格納される提示情報とを比較し、これら状況判定結果、対象領域、道具、動作を示す情報に対応する状況ID、テーマID、部位ID、道具ID、動作IDに対応付けられる提示情報を取得する。図7に示すように、提示情報とは、ユーザに対し提示する内容と提示形式とに関する情報を含む。提示情報取得部19は、取得した提示情報を提示情報生成部21へ出力する。 The presentation information acquisition unit 19 obtains the situation determination result, the target area, the tool, and the information indicating the operation based on the acquired situation determination result, the information indicating the target area and the tool, and the work start signal and the information indicating the action. The presentation information stored in the presentation information storage unit 20 is compared, and these situation determination results are associated with a situation ID, a theme ID, a part ID, a tool ID, and a motion ID corresponding to information indicating a target area, a tool, and a motion. Obtained presentation information. As shown in FIG. 7, the presentation information includes information on the content to be presented to the user and the presentation format. The presentation information acquisition unit 19 outputs the acquired presentation information to the presentation information generation unit 21.
図7は、本発明の実施形態における技術支援装置の提示情報格納部に格納される提示情報の一例を表形式で示す図である。
図7に示すように、提示情報格納部20に格納される提示情報は、状況ID、テーマID、部位ID、道具ID、動作ID、提示内容、内容詳細、および提示形式が対応付けられる。
FIG. 7 is a diagram illustrating an example of the presentation information stored in the presentation information storage unit of the technical support device according to the embodiment of the present invention in a table format.
As illustrated in FIG. 7, the presentation information stored in the presentation information storage unit 20 is associated with a situation ID, a theme ID, a site ID, a tool ID, an operation ID, a presentation content, a content detail, and a presentation format.
状況IDとは、「アプリ起動=0’」、「作業前=0」、「作業中=1」、「作業後=2」、「アプリケーション起動中=3」等の、ユーザによる作業の状態(状況)を一意に識別するための識別子である。道具IDとは、例えばユーザがメイクに使用する道具を一意に識別するための識別子である。ここでは、メイク道具のメーカ、カラー、色味、商品番号などから構成される識別子である。動作IDとは、「ユーザの笑顔=0」、「手を上げる=1」等の動作を一意に識別するための識別子である。提示情報における各種IDの「-」とは、IDの種別を問わないことを指す。 The situation ID is a state of work performed by the user such as “application start = 0 ′”, “before work = 0”, “working = 1”, “after work = 2”, “application running = 3”, and the like ( This is an identifier for uniquely identifying the situation. The tool ID is, for example, an identifier for uniquely identifying a tool used by the user for makeup. Here, the identifier is made up of the maker, color, color, and product number of the makeup tool. The action ID is an identifier for uniquely identifying an action such as “smile of user = 0”, “raise hand = 1”. "-" Of various IDs in the presentation information indicates that the type of the ID is irrelevant.
提示内容とは、ユーザへのあいさつやメイクのアドバイスに加え、メイクや美容以外の、例えば生活に必要な情報や雑談等が挙げられる。
提示形式とは、(1)文章やイラスト、動画、音声で出力する、(2)提示する内容を画像で生成し、その画像を対象画像に重畳させる、(3)外部コンテンツDB50に登録された外部コンテンツ70と連携し、チャット形式で表示、リンクをユーザに提示する等が挙げられる。また、同じ提示内容に対し、これらの提示形式を複数組み合わせてもよい。
The presentation content includes, in addition to greetings and makeup advice to the user, information other than makeup and beauty, for example, information necessary for daily life, chat, and the like.
The presentation format includes (1) outputting a sentence, illustration, moving image, or audio, (2) generating the content to be presented as an image, and superimposing the image on the target image, and (3) registering the content in the external content DB 50. Displaying in the form of a chat in cooperation with the external content 70, presenting a link to the user, and the like are exemplified. Further, a plurality of these presentation formats may be combined for the same presentation content.
差分抽出部13からの作業開始信号を取得した場合、提示情報格納部20は、外部コンテンツDB50に登録されたアプリケーション(例:電車の運行状況)において、情報(例:電車の遅延等情報)がアップデートされているか確認し、アップデートされているときに、このアップデートされた情報をユーザに情報提示するために外部コンテンツDB50から取得し、上書き保存する。また、提示情報格納部20は、本アプリケーション起動中に、外部コンテンツDB50上にあるアプリケーションにおいて、情報がアップデートされたときに、このアップデートされた情報をユーザに情報提示するために外部コンテンツDB50から取得し、上書き保存する。そして、提示情報取得部19は、「状況ID=3」に対応する提示情報を取得し、提示情報生成部21へ出力する。 When the work start signal is acquired from the difference extracting unit 13, the presentation information storage unit 20 stores information (eg, information such as train delay) in an application (eg, train operation status) registered in the external content DB 50. It is confirmed whether or not the information has been updated. When the information has been updated, the updated information is acquired from the external content DB 50 in order to present the information to the user, and overwritten and stored. The presentation information storage unit 20 acquires the updated information from the external content DB 50 in order to present the updated information to the user when the information is updated in the application on the external content DB 50 during the activation of the application. And overwrite it. Then, the presentation information acquisition unit 19 acquires the presentation information corresponding to “Situation ID = 3” and outputs the presentation information to the presentation information generation unit 21.
提示情報生成部21は、提示情報取得部19から提示情報を受け取る。提示情報生成部21は、この受け取った提示情報の補正処理や提示情報を出力する形式にする処理(例えば、出力形式が画像の場合は描画処理)を行い、この処理が施された提示情報を提示タイミング制御部22に出力する。 The presentation information generation unit 21 receives the presentation information from the presentation information acquisition unit 19. The presentation information generating unit 21 performs a process of correcting the received presentation information and a process of outputting the presentation information (for example, a drawing process when the output format is an image), and displays the presentation information that has been subjected to this process. Output to the presentation timing control unit 22.
提示情報の補正処理とは、提示情報が画像である場合、対象の画像の色や提示位置のバランスを調整する処理等が考えられる。 When the presentation information is an image, the correction process of the presentation information may be a process of adjusting the balance between the color of the target image and the presentation position.
次に、状況認識部16の詳細について説明する。
状況認識部16の状況判定部16aは、差分抽出部13から差分情報を、テーマ選択部15からテーマ情報をそれぞれ取得する。
Next, details of the situation recognition unit 16 will be described.
The situation determination unit 16a of the situation recognition unit 16 acquires difference information from the difference extraction unit 13 and theme information from the theme selection unit 15, respectively.
参考状態格納部16bは、例えば不揮発性メモリなどの記憶装置であり、テーマごとにユーザが参考とする作業の状況を示す状況情報を、事前に格納する。
図8は、本発明の実施形態における技術支援装置の参考状態格納部に格納される状況情報の一例を表形式で示す図である。図8に示すように、参考状態格納部16bに格納される状況情報は、テーマID、部位ID、特徴点座標(理論値)p’_b、色(理論値)c’_b、差分値d’_b、状況IDが対応付けられる。
The reference state storage unit 16b is a storage device such as a non-volatile memory, for example, and stores in advance status information indicating the status of work to which the user refers for each theme.
FIG. 8 is a diagram illustrating an example of the status information stored in the reference status storage unit of the technical support device according to the embodiment of the present invention in a table format. As shown in FIG. 8, the situation information stored in the reference state storage unit 16b includes a theme ID, a part ID, feature point coordinates (theoretical value) p'_b, a color (theoretical value) c'_b, and a difference value d '. _b and a situation ID are associated with each other.
上記の特徴点座標(理論値)p’_b、色(理論値)c’_b、差分値d’_b、状況IDは設定値であり、例えば操作端末40に対する操作による設定によって変更可能である。また、色(理論値)c’_bは外部コンテンツDB50や操作端末40から取得したテーマ情報に応じても変更可能である。
状況判定部16aは、取得した差分情報とテーマ情報とを用いて、参考状態格納部16bから状況情報を取得する。
状況判定部16aは、この取得した状況情報を提示情報取得部19へ出力する。
The feature point coordinates (theoretical value) p′_b, the color (theoretical value) c′_b, the difference value d′ _b, and the situation ID are set values, and can be changed by, for example, setting by operating the operation terminal 40. Further, the color (theoretical value) c′_b can be changed according to the theme information acquired from the external content DB 50 or the operation terminal 40.
The situation determination unit 16a acquires situation information from the reference state storage unit 16b using the acquired difference information and theme information.
The situation determination unit 16a outputs the acquired situation information to the presentation information acquisition unit 19.
次にメイクの場合の状況情報の取得の具体例について説明する。状況判定部16aは所定条件(設定により変更可)を満たす、顔差分情報上の1行または複数の行で定められる差分値d_b、およびこの差分値d_bに対応付けられる部位ID、特徴点座標(実測値)p_b、色(実測値)c_bが対応付けられる特定顔差分情報を、上記のように取得した顔差分情報から抽出する。
状況判定部16aは、(1)テーマ選択部15から取得したテーマ情報であるテーマID、顔差分情報から抽出した特定顔差分情報における部位IDとの組み合わせと、(2)参考状態格納部16bから取得した状況情報のテーマID、部位IDの組み合わせとを比較する。
Next, a specific example of acquiring situation information in the case of makeup will be described. The situation determination unit 16a determines a difference value d_b defined by one or more lines on the face difference information, which satisfies a predetermined condition (can be changed by setting), a site ID associated with the difference value d_b, and a feature point coordinate ( The specific face difference information associated with the (measured value) p_b and the color (measured value) c_b is extracted from the face difference information acquired as described above.
The situation determination unit 16a includes (1) a combination of the theme ID, which is the theme information acquired from the theme selection unit 15, and the part ID in the specific face difference information extracted from the face difference information, and (2) a combination of the reference state storage unit 16b. The obtained situation information is compared with the combination of the theme ID and the part ID.
これらの比較した各種のIDが同種のIDの間で同値となる場合、状況判定部16aは、(1)特定顔差分情報の一要素であり、上記の比較した各IDに対応する色(実測値)c_bと、(2)参考状態格納部16bに格納される状況情報の一要素である、上記の比較した各IDに対応する色(理論値)c’_bとの差分値を算出する。 When these compared various IDs have the same value among the same type of IDs, the situation determination unit 16a determines (1) one element of the specific face difference information, and the color (actual measurement) corresponding to each of the compared IDs. The difference value between the (value) c_b and the color (theoretical value) c′_b corresponding to each of the compared IDs, which is one element of the situation information stored in the (2) reference state storage unit 16b, is calculated.
状況判定部16aは、この算出した差分値と、参考状態格納部16bに格納される状況情報の各行の差分値d’_bの範囲とを比較し、この範囲に、上記の算出した差分値が含まれる場合、この範囲の差分値d’_bに対応する状況ID(0、1または2)、テーマID、部位IDを状況情報から取得する。 The situation determination unit 16a compares the calculated difference value with the range of the difference value d'_b of each row of the situation information stored in the reference state storage unit 16b, and the calculated difference value is included in this range. If it is included, the situation ID (0, 1, or 2), theme ID, and part ID corresponding to the difference value d'_b in this range are obtained from the situation information.
次に、対象領域認識部17の詳細について説明する。図9は、本発明の実施形態における技術支援装置の対象領域認識部(の詳細構成の一例を示すブロック図である。
図9に示すように、対象領域認識部17は、対象領域取得部17a、道具認識部17b、対象領域判定部17c、道具情報格納部17dを有する。対象領域認識部17は、対象領域取得部17a、対象領域判定部17cのみを含む構成でもよいし、または、道具認識部17b、対象領域判定部17c、道具情報格納部17dのみを含む構成でもよいし、または対象領域取得部17aのみを含む構成でもよいし、道具認識部17b、道具情報格納部17dのみを含む構成でもよい。
Next, details of the target area recognition unit 17 will be described. FIG. 9 is a block diagram illustrating an example of a detailed configuration of the target area recognition unit (of the technical support apparatus according to the embodiment of the present invention).
As shown in FIG. 9, the target area recognition unit 17 includes a target area acquisition unit 17a, a tool recognition unit 17b, a target area determination unit 17c, and a tool information storage unit 17d. The target area recognition unit 17 may include only the target area acquisition unit 17a and the target area determination unit 17c, or may include only the tool recognition unit 17b, the target area determination unit 17c, and the tool information storage unit 17d. Alternatively, the configuration may include only the target area acquisition unit 17a, or may include only the tool recognition unit 17b and the tool information storage unit 17d.
対象領域取得部17aは、差分抽出部13から顔差分情報を、テーマ選択部15からテーマ情報をそれぞれ取得する。対象領域取得部17aは、取得した差分情報とテーマ情報から、対象領域の情報を取得する。対象領域取得部17aは、決定した対象領域の情報を対象領域判定部17cへ出力する。具体的には、対象領域取得部17aは、取得した顔差分情報について、各部位で差分値がある設定値(設定により変更可能)以上の座標点において、部位ごとに色分けする。例えば、眉毛の領域内で差分値がある設定値以上の座標点を赤色、目の領域内で差分値がある設定値以上の座標点を青色、頬の領域内で差分値がある設定値以上の座標点を緑色、唇の領域内で差分値がある設定値以上の座標点を黄色とする。対象領域取得部17aは、各部位内で色付けされた座標点において隣接する座標点が複数ある場合、それらの隣接する座標点からなる領域の輪郭を抽出する。このとき、対象領域取得部17aは、隣接する座標点が複数ある場合、隣接する座標点から構成する領域の面積がX以上である場合等、座標点から生成される領域の条件を設定により変更できるものとする。対象領域取得部17aは、この抽出した輪郭のうち、最もy座標が小さい(画面の上部)部位を対象領域と判定する。 The target area acquisition unit 17a acquires face difference information from the difference extraction unit 13 and theme information from the theme selection unit 15, respectively. The target area obtaining unit 17a obtains information on the target area from the obtained difference information and theme information. The target area acquisition unit 17a outputs information on the determined target area to the target area determination unit 17c. Specifically, the target area acquisition unit 17a color-codes the acquired face difference information for each part at coordinate points that are equal to or greater than a set value (can be changed by setting) with a difference value in each part. For example, a coordinate point having a difference value equal to or more than a set value in the eyebrow area is red, a coordinate point having a difference value equal to or more than a set value in the eye area is blue, and a coordinate value having a difference value in the cheek area is equal to or more than a set value. Is a green coordinate point, and a coordinate point having a difference value equal to or more than a set value in the lip region is yellow. When there are a plurality of adjacent coordinate points among the colored coordinate points in each part, the target area obtaining unit 17a extracts the contour of the area formed by the adjacent coordinate points. At this time, the target area acquiring unit 17a changes the condition of the area generated from the coordinate points by setting, for example, when there are a plurality of adjacent coordinate points, when the area of the area formed by the adjacent coordinate points is X or more. I can do it. The target area acquisition unit 17a determines a part having the smallest y coordinate (upper part of the screen) among the extracted contours as the target area.
道具認識部17bは、差分抽出部13から差分情報を、テーマ選択部からテーマ情報をそれぞれ取得する。道具認識部17bは、取得した差分情報とテーマ情報を用いて、道具情報格納部17dから対象領域や使用する道具の情報を取得する。道具認識部17bは、取得した対象領域の情報を対象領域判定部へ17cに出力する。 The tool recognition unit 17b acquires difference information from the difference extraction unit 13 and theme information from the theme selection unit. The tool recognizing unit 17b uses the obtained difference information and theme information to obtain information on the target area and the tool to be used from the tool information storage unit 17d. The tool recognition unit 17b outputs the acquired information on the target area to the target area determination unit 17c.
道具認識部17bによる対象領域や道具の情報の取得は、統計的な機械学習によるパターンマッチング方法等や一般的な物体認識であり、手法は問わない。 The acquisition of the information on the target area and the tool by the tool recognizing unit 17b is a pattern matching method by statistical machine learning or general object recognition, and the method is not limited.
道具情報格納部17dでは、ユーザが作業に用いる道具と処理領域との関係を示す道具情報があらかじめ格納されている。
図10は、本発明の実施形態における技術支援装置の道具情報格納部に格納される道具情報の一例を表形式で示す図である。図10に示すように、道具情報は、テーマID、部位ID、道具ID、特徴点座標(理論値)p’_a、色(理論値)c’_aが対応付けられる。
In the tool information storage unit 17d, tool information indicating the relationship between the tool used by the user for work and the processing area is stored in advance.
FIG. 10 is a table showing an example of tool information stored in the tool information storage unit of the technical support device according to the embodiment of the present invention. As shown in FIG. 10, the tool information is associated with a theme ID, a part ID, a tool ID, feature point coordinates (theoretical value) p'_a, and a color (theoretical value) c'_a.
道具認識部17bは、テーマ選択部15から取得したテーマIDと道具情報格納部17dに格納される道具情報におけるテーマIDとを比較する。道具認識部17bは、これら比較したテーマIDが同値のものにおいて、道具情報格納部17dに格納されている道具情報における該当のテーマIDに対応付けられる特徴点座標(理論値)p’_a、色(理論値)c’_aと、差分抽出部13から取得した差分情報の各行における特徴点座標p_a、色(実測値)c_aとの差分(や類似度等)を算出する。
この算出した差分の値が、ある設定値(設定により変更可能)以内である場合(類似度の場合は、ある設定値以上の値である場合)、道具認識部17bは、この差分の値の算出に用いた特徴点座標(理論値)p’_a、色(理論値)c’_aに対応する部位ID、テーマID、道具IDを道具情報から取得する。
The tool recognition unit 17b compares the theme ID acquired from the theme selection unit 15 with the theme ID in the tool information stored in the tool information storage unit 17d. The tool recognizing unit 17b sets the feature point coordinates (theoretical value) p′_a and color corresponding to the corresponding theme ID in the tool information stored in the tool information storage unit 17d when the compared theme IDs have the same value. The difference (or similarity) between the (theoretical value) c′_a and the feature point coordinates p_a and the color (actually measured value) c_a in each row of the difference information acquired from the difference extracting unit 13 is calculated.
When the value of the calculated difference is within a certain set value (can be changed by setting) (in the case of similarity, the value is equal to or more than a certain set value), the tool recognizing unit 17b determines the value of the difference. The part ID, theme ID, and tool ID corresponding to the feature point coordinates (theoretical value) p′_a and the color (theoretical value) c′_a used for the calculation are acquired from the tool information.
例えば、道具認識部17bは、差分情報から物体認識等を用いてメイク道具を認識する。道具認識部17bは、この認識したメイク道具の特徴点座標p_aや色(実測値)c_aの組み合わせと、道具情報格納部17dに格納される道具情報における特徴点座標(理論値)p’_aや色(理論値)c’_aの組み合わせとを比較し、比較したそれぞれの値が同じもしくは所定条件を満たして近い場合、この比較した特徴点座標(理論値)p’_aや色(理論値)c’_aの組み合わせに対応付けられる部位ID、テーマID、道具IDを対象領域の情報として道具情報から取得する。 For example, the tool recognition unit 17b recognizes the makeup tool from the difference information using object recognition or the like. The tool recognizing unit 17b compares the recognized combination of the feature point coordinates p_a and the color (actually measured value) c_a of the makeup tool with the feature point coordinates (theoretical value) p′_a in the tool information stored in the tool information storage unit 17d. The combination of the color (theoretical value) c'_a is compared, and when the compared values are the same or close to satisfying the predetermined condition, the compared feature point coordinates (theoretical value) p'_a and the color (theoretical value) The part ID, theme ID, and tool ID associated with the combination of c′_a are acquired from the tool information as information of the target area.
また、ユーザが商品購入時に購入した商品(例えばメイク道具)の情報を操作端末40への操作により設定する場合に、外部コンテンツDB50が化粧品メーカのWebコンテンツ等の外部コンテンツ70上にある商品の情報としてその特徴点座標や色情報を得て、道具情報として道具情報格納部17dに格納されることも考えられる。また、道具情報における特徴点座標(理論値)p’_aや色(理論値)c’_aは機械学習から得た値でもよい。 When the user sets information on a product (for example, a makeup tool) purchased at the time of purchasing the product by operating the operation terminal 40, the external content DB 50 stores information on the product on the external content 70 such as the web content of a cosmetic maker. It is also conceivable that the feature point coordinates and color information are obtained and stored as tool information in the tool information storage unit 17d. The feature point coordinates (theoretical value) p'_a and the color (theoretical value) c'_a in the tool information may be values obtained from machine learning.
対象領域判定部17cは、対象領域取得部17aと道具認識部17bとから対象領域や道具の情報を受け取る。対象領域判定部17cは、受け取った対象領域や道具の判定を行い、判定結果を対象領域認識部17による認識結果として提示情報取得部19へ出力する。 The target area determination unit 17c receives information on the target area and the tool from the target area acquisition unit 17a and the tool recognition unit 17b. The target area determination unit 17c determines the received target area or tool, and outputs the determination result to the presentation information acquisition unit 19 as a recognition result by the target area recognition unit 17.
判定の方法は、操作端末40への操作による設定により変更可能である。例えば、対象領域取得部17aと道具認識部17bの双方から取得した対象領域の情報が同等であれば、対象領域判定部17cは、この対象領域の情報を提示情報取得部19に対象領域の情報を出力することが考えられる。または、対象領域判定部17cは、対象領域取得部17aまたは道具認識部17bのどちらか一方のみから対象領域や道具の情報を受け取った場合、そのまま対象領域や道具の情報を提示情報取得部19に出力することが考えられる。 The determination method can be changed by setting by operating the operation terminal 40. For example, if the information of the target area acquired from both the target area acquiring unit 17a and the tool recognizing unit 17b is the same, the target area determining unit 17c sends the information of the target area to the presentation information acquiring unit 19 as the information of the target area. May be output. Alternatively, when the target area determining unit 17c receives the information of the target area or the tool from only one of the target area obtaining unit 17a and the tool recognizing unit 17b, the information of the target area or the tool is transmitted to the presentation information obtaining unit 19 as it is. It is possible to output.
提示タイミング制御部22では、提示情報生成部21から、処理が施された提示情報を受け取る。提示タイミング制御部22は、受け取った提示情報を元に、提示タイミング格納部23から提示タイミング情報を取得し、この提示タイミング情報を元に、処理を施された提示情報を出力装置60へ出力する。出力装置60は、技術支援装置10と一体でも構わない。提示タイミング格納部23は、例えば不揮発性メモリなどの記憶装置で実現され,提示内容ごとに、提示情報を提示するタイミングに関する情報が事前に格納されている。提示タイミング情報とは、提示情報を出力装置60に出力するときの条件であり、提示タイミング制御部22からの参照を可能にする。 The presentation timing control unit 22 receives the processed presentation information from the presentation information generation unit 21. The presentation timing control unit 22 acquires the presentation timing information from the presentation timing storage unit 23 based on the received presentation information, and outputs the processed presentation information to the output device 60 based on the presentation timing information. . The output device 60 may be integrated with the technical support device 10. The presentation timing storage unit 23 is realized by, for example, a storage device such as a non-volatile memory, and stores information related to the timing of presenting presentation information in advance for each presentation content. The presentation timing information is a condition when the presentation information is output to the output device 60, and enables the presentation timing control unit 22 to refer to the information.
ここで、提示情報の提示タイミングの制御の具体例について説明する。図11は、本発明の実施形態における技術支援装置の提示タイミング格納部23に格納される提示タイミング情報の一例を表形式で示す図である。
図11に示すように、提示タイミング格納部23に格納される提示タイミング情報は、提示番号(図7に示した提示情報の「No.」と同値)、提示内容(図7に示した提示情報の「提示内容」と同値)、提示条件が対応付けられて構成される。
Here, a specific example of control of the presentation timing of the presentation information will be described. FIG. 11 is a table showing an example of presentation timing information stored in the presentation timing storage unit 23 of the technical support device according to the embodiment of the present invention.
As shown in FIG. 11, the presentation timing information stored in the presentation timing storage unit 23 includes a presentation number (equivalent to “No.” of the presentation information shown in FIG. 7), a presentation content (the presentation information shown in FIG. 7). And "presentation contents"), and presentation conditions are associated with each other.
提示タイミング制御部22は、提示情報生成部21により生成された提示情報と、この提示情報に対応付けられる提示番号(図7に示した提示情報の「No.」)とを受け取る。提示タイミング制御部22は、この受け取った提示番号と、提示タイミング格納部23に格納される提示タイミング情報における提示番号とを比較し、比較した値が同値のときに、対応する提示タイミング情報(提示条件)を取得し、この取得した情報を出力装置60に出力する。 The presentation timing control unit 22 receives the presentation information generated by the presentation information generation unit 21 and the presentation number (“No.” of the presentation information shown in FIG. 7) associated with the presentation information. The presentation timing control unit 22 compares the received presentation number with the presentation number in the presentation timing information stored in the presentation timing storage unit 23, and when the compared values are the same, the corresponding presentation timing information (presentation Condition) and outputs the obtained information to the output device 60.
次に、技術支援装置10による技術支援のための動作や表示画面の例について説明する。
(例1)
まず、人物認証に伴うあいさつの提示について説明する。
図12は、本発明の実施形態における技術支援装置による人物認証に伴うあいさつの提示の手順の一例を示すフローチャートである。
図13は、本発明の実施形態における技術支援装置による人物認証に伴うあいさつの提示における表示画面の一例を示す図である。
Next, an example of an operation and a display screen for technical support by the technical support device 10 will be described.
(Example 1)
First, the presentation of the greeting accompanying the person authentication will be described.
FIG. 12 is a flowchart illustrating an example of a procedure for presenting a greeting accompanying personal authentication by the technical support device according to the embodiment of the present invention.
FIG. 13 is a diagram illustrating an example of a display screen in presenting a greeting accompanying the person authentication by the technical support device according to the embodiment of the present invention.
人物認証のために、差分抽出部13は、特徴点検出部12から受け取った、カメラ30により撮影した画像からユーザの顔特徴点情報を取得した場合に、この顔特徴点情報を、ユーザ個人を特定できる名前、プロフィール(年齢、出身地、日常読んでいる雑誌、趣味など)と対応付けて参考特徴点情報として特徴点情報格納部14に保存することができる。ユーザ個人を特定できる名前やプロフィールの情報は、提示情報格納部20や操作端末40、外部コンテンツDB50を介して外部コンテンツ70に保存されてもよい。この参考特徴点情報は、該当のユーザが操作端末40に対して削除のための所定の操作を行なわない限り削除されない。 For personal authentication, the difference extracting unit 13 extracts the face feature point information of the user from the image captured by the camera 30 and received from the feature point detection unit 12, and extracts the face feature point information from the user. It can be stored in the feature point information storage unit 14 as reference feature point information in association with a identifiable name and profile (eg, age, place of birth, magazine that you read everyday, hobbies, etc.). The name and profile information that can specify the individual user may be stored in the external content 70 via the presentation information storage unit 20, the operation terminal 40, and the external content DB 50. The reference feature point information is not deleted unless the user performs a predetermined operation for deletion on the operation terminal 40.
技術支援装置10を動作させてから提示情報を未だ出力装置60のモニタ画面に表示していない場合で、差分抽出部13は、特徴点検出部12から、カメラ30により撮影した画像からユーザの顔特徴点情報を受け取る、すなわち、ユーザの顔を検出する(S11)。すると、差分抽出部13は、この顔特徴点情報と、上記の参照特徴点情報とを取得し、これらを比較して、参照特徴点情報上で、検出した顔特徴点情報と一致または類似する情報に対応付けられる名前を取得することで人物認識を行ない(S12)、この名前に関連付けられるプロフィールを読み込む(S13)。 In the case where the presentation information has not yet been displayed on the monitor screen of the output device 60 since the operation of the technical support device 10, the difference extraction unit 13 outputs the user's face from the image captured by the camera 30 from the feature point detection unit 12. The feature point information is received, that is, the user's face is detected (S11). Then, the difference extracting unit 13 acquires the face feature point information and the above-mentioned reference feature point information, compares them, and matches or is similar to the detected face feature point information on the reference feature point information. The person is recognized by acquiring the name associated with the information (S12), and the profile associated with this name is read (S13).
この例では、差分抽出部13は、名前、プロフィールを提示情報格納部20に出力する。また、提示情報格納部20は、取得した名前とプロフィールを該当する提示内容に格納する。 In this example, the difference extraction unit 13 outputs the name and the profile to the presentation information storage unit 20. Further, the presentation information storage unit 20 stores the acquired name and profile in the corresponding presentation content.
上記のように提示情報を未だ表示していない場合で、提示情報取得部19は、差分抽出部13から作業開始信号を受け取ると、「状況ID=0’」と変換し、この「状況ID=0’」を取得すると、ユーザの撮影画像を出力装置60のモニタ画面に表示させ、かつ、提示情報格納部20に格納される、図7に示す提示情報の「NO。1」の行の内容詳細で定められる「○○(ユーザの名前)さん、こんにちは!」とのあいさつを、音声により出力装置60の図示しないスピーカから出力させる。また、図13に示すように出力装置60のモニタ画面に表示させてもよい。 In the case where the presentation information has not been displayed as described above, when the presentation information acquisition unit 19 receives the work start signal from the difference extraction unit 13, the presentation information acquisition unit 19 converts it into “Situation ID = 0 ′”, and converts the “Situation ID = 0”. When “0 ′” is acquired, the captured image of the user is displayed on the monitor screen of the output device 60 and the content of the row “NO. 1” of the presentation information shown in FIG. is defined in detail "○○ (name of user) 's, Hello!" greetings and, to be output from the speaker (not shown) of the output device 60 by voice. Alternatively, the information may be displayed on a monitor screen of the output device 60 as shown in FIG.
次に、ユーザがメイクを施しているパーツに応じて、アドバイスであるメイク情報を提示することについて説明する。
図14は、本発明の実施形態における技術支援装置によるメイク情報の提示の手順の一例を示すフローチャートである。
図15は、本発明の実施形態における技術支援装置による部位確認における表示画面の一例を示す図である。
図16は、本発明の実施形態における技術支援装置によるメイク情報の提示における表示画面の一例を示す図である。
Next, a description will be given of the case where the user presents makeup information as advice according to the part on which makeup is applied.
FIG. 14 is a flowchart illustrating an example of a procedure for presenting makeup information by the technical support device according to the embodiment of the present invention.
FIG. 15 is a diagram illustrating an example of a display screen in the part confirmation by the technical support device according to the embodiment of the present invention.
FIG. 16 is a diagram illustrating an example of a display screen in presenting makeup information by the technical support device according to the embodiment of the present invention.
上記のあいさつの提示の後、提示情報生成部21は、あいさつを提示されたことをテーマ選択部15に通知する。すると、テーマ選択部15は、上記のあいさつの提示において取得したプロフィールと、操作端末40や外部コンテンツDB50などで管理される、該当のユーザの睡眠時間、スケジュール、運動量(例えば歩数)等に基づいて導出された、ユーザに適したテーマ、ここではメイクテーマを取得する。そのメイクテーマの中から、ユーザが操作端末40を用いてメイクテーマを選択すると、テーマ情報が状況認識部16、対象領域認識部17、動作認識部18へ出力される。そして、ユーザが写る撮影画像を表示させた状態で、状況認識部16が、状況ID「0」を含む状況情報を提示情報取得部19に出力し、対象領域認識部17の対象領域判定部17cが、ユーザがメイクし始めるパーツ(ユーザの眉)に対応する部位IDを提示情報取得部19に出力する、つまり、ユーザがメイクし始めるパーツの検出がなされるとする(S21)。 After the above greeting is presented, the presentation information generating unit 21 notifies the theme selecting unit 15 that the greeting has been presented. Then, the theme selecting unit 15 determines the sleep time, the schedule, the amount of exercise (for example, the number of steps), etc., of the user, which are managed by the operation terminal 40, the external content DB 50, and the like, in the presentation of the above greeting. The derived theme suitable for the user, here, the makeup theme is acquired. When the user selects a makeup theme from the makeup themes using the operation terminal 40, theme information is output to the situation recognition unit 16, the target area recognition unit 17, and the operation recognition unit 18. Then, in a state where the captured image in which the user is captured is displayed, the situation recognition unit 16 outputs the situation information including the situation ID “0” to the presentation information acquisition unit 19, and the target area determination unit 17c of the target area recognition unit 17 However, it is assumed that the part ID corresponding to the part (the user's eyebrows) at which the user starts to make is output to the presentation information acquisition unit 19, that is, the part at which the user starts making is detected (S21).
すると、提示情報取得部19は、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。11」の行で定められる「眉毛のメイクね!」との確認メッセージを、図15に示すように出力装置60の画面上に表示させる。 Then, the presentation information acquisition unit 19 sends a confirmation message of “make eyebrows!” Defined in the row of “NO. 11” in the presentation information shown in FIG. 15 is displayed on the screen of the output device 60 as shown in FIG.
そして、提示情報取得部19は、上記の確認メッセージの表示から後、この確認メッセージに代えて、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。12」の行で定められる、メイクのポイント、方法のアドバイス情報として、上記の検出したメイクテーマに紐づいたメイク方法のポイントのメッセージやメイク方法の動画を図16に示すように出力装置60の画面上に表示させる(S22)。 Then, after the display of the above confirmation message, the presentation information acquisition unit 19 replaces this confirmation message with the presentation information shown in FIG. As advice information on makeup points and methods determined by the line, a message on the points of the makeup method associated with the detected makeup theme and a moving image of the makeup method are displayed on the screen of the output device 60 as shown in FIG. It is displayed (S22).
このメイクのポイント、方法のアドバイス情報を表示させた状態で、提示情報取得部19は、画面上のユーザの撮影画像における、S21で検出した、ユーザがメイクし始めるパーツに対応する領域に、このパーツに対してメイクを施す領域の画像を重畳させて表示させる(S23)。 With the advice information on the point and method of the makeup displayed, the presentation information acquisition unit 19 places this information in the area corresponding to the part of the user's captured image on the screen that is detected in S21 and that corresponds to the part where the user starts to make. The image of the area where makeup is applied to the part is superimposed and displayed (S23).
これにより、ユーザがメイクを施すパーツに応じて、このパーツに関するメイクの情報をユーザに提示することができる。また、メイクテーマに基づくS24で表示されたアドバイス情報に、ユーザの趣向に沿わない場合、ユーザによる操作端末への所定の操作により、テーマ選択部15に、ユーザに適したテーマを再度検出させるようにしてもよいし、この検出によらず、ユーザによる操作端末への所定の操作により、任意のメイクテーマを設定し、このメイクテーマに紐づいたメイク方法のポイントのメッセージやメイク方法の動画を上記のように出力装置60の画面上に表示させてもよい。同様にして、使用しているメイク道具に関しても、メイク道具に関する情報を提示することができる。 Thereby, according to the part on which the user applies makeup, information on makeup related to the part can be presented to the user. If the advice information displayed in S24 based on the makeup theme does not conform to the user's preference, the theme selection unit 15 is caused to again detect a theme suitable for the user by performing a predetermined operation on the operation terminal by the user. Alternatively, regardless of this detection, an arbitrary make-up theme is set by a predetermined operation of the operation terminal by the user, and a message of a make-up point associated with this make-up theme and a video of the make-up method are displayed. The information may be displayed on the screen of the output device 60 as described above. Similarly, information on the makeup tool used can be presented.
次に、生活情報を提示することについて説明する。図17は、本発明の実施形態における技術支援装置による生活情報の提示の手順の第1の例を示すフローチャートである。図18は、本発明の実施形態における技術支援装置による生活情報の提示の手順の第2の例を示すフローチャートである。図19は、本発明の実施形態における技術支援装置による生活情報の提示における表示画面の一例を示す図である。 Next, presentation of life information will be described. FIG. 17 is a flowchart illustrating a first example of a procedure for presenting life information by the technical support device according to the embodiment of the present invention. FIG. 18 is a flowchart illustrating a second example of a procedure for presenting life information by the technical support device according to the embodiment of the present invention. FIG. 19 is a diagram illustrating an example of a display screen in presenting life information by the technical support device according to the embodiment of the present invention.
ユーザによるメイクの開始前、かつユーザが写る撮影画像を表示させた状態で、天気予報アプリケーションの天気予報情報がアップデートされ、提示情報格納部20に最新の天気予報情報が保存されている(S31)。かつ、状況認識部16が、状況ID「0」を含む状況情報が提示情報取得部19に出力される、つまり、ユーザがメイクしようとしていることの検出がなされると(S32)、提示情報取得部19は、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。6」の行で定められる、天気予報情報、およびこの天気に基づくメイクのアドバイスのメッセージ、例えば「今日の天気は雨だよ。湿度が高いからベースメイクは薄めでね!」とのメッセージを、図19に示すように出力装置60の画面上に表示させる(S33)。S31のアップデートとS32の検出は順序が逆でもよい。
また、ユーザが本アプリケーションを起動しているとき、外部コンテンツDB50の電車運行情報がアップデートされると、提示情報格納部20に最新の電車運行情報が保存されていると(S31A)、提示情報取得部19は、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。5」の行で定められる電車の運行状況のメッセージ、例えば「□線は遅延しているよ!」とのメッセージを、図19に示すように出力装置60の画面上に表示させる(S32A)。「NO。5」の行で定められる電車の運行状況のメッセージは、「状況ID=3」であるため、メイクの作業状況には依存せず、本アプリケーションが起動中であればいつでも表示してよい。
The weather forecast information of the weather forecast application is updated before the start of the makeup by the user and in a state in which the photographed image of the user is displayed, and the latest weather forecast information is stored in the presentation information storage unit 20 (S31). . When the situation recognition unit 16 outputs situation information including the situation ID “0” to the presentation information acquisition unit 19, that is, when it is detected that the user is about to make (S32), the presentation information acquisition is performed. The unit 19 stores, in the presentation information storage unit 20, the presentation information illustrated in FIG. 7, the weather forecast information defined by the row “NO. 6”, and a message of makeup advice based on this weather, for example, A message "Today's weather is rainy. Base makeup should be thin because of high humidity!" Is displayed on the screen of the output device 60 as shown in FIG. 19 (S33). The order of the update of S31 and the detection of S32 may be reversed.
When the user activates this application and the train operation information of the external content DB 50 is updated, if the latest train operation information is stored in the presentation information storage unit 20 (S31A), the presentation information acquisition is performed. The unit 19 stores a message indicating the operation status of the train determined by the row “NO. 5” in the presentation information shown in FIG. Is displayed on the screen of the output device 60 as shown in FIG. 19 (S32A). Since the message of the operation status of the train determined in the row of “NO. 5” is “Status ID = 3”, it is not dependent on the work status of the makeup, and is displayed at any time while the application is running. Good.
これにより、提示する内容を応じて適切なときに、このユーザに生活情報を提示することができる。 Thereby, the living information can be presented to this user at an appropriate time according to the content to be presented.
次に、ユーザによるメイク完了後のメイク画像の保存および、次回のメイク開始時のテーマ選定について説明する。
図20は、本発明の実施形態における技術支援装置による情報保存および前回情報の提示の手順の一例を示すフローチャートである。
図21は、本発明の実施形態における技術支援装置による情報保存における表示画面の一例を示す図である。
図22は、本発明の実施形態における技術支援装置による前回情報の提示における表示画面の一例を示す図である。
Next, the saving of the makeup image after the completion of makeup by the user and the selection of a theme at the start of the next makeup will be described.
FIG. 20 is a flowchart illustrating an example of a procedure of storing information and presenting previous information by the technical support device according to the embodiment of the present invention.
FIG. 21 is a diagram illustrating an example of a display screen in information storage by the technical support device according to the embodiment of the present invention.
FIG. 22 is a diagram illustrating an example of a display screen in presenting previous information by the technical support device according to the embodiment of the present invention.
外部コンテンツDB50に登録されるアプリケーションには、例えば、ユーザの笑顔やピースをする等の表情や動作を認識したのを契機にそのユーザの撮影画像を保存し、その画像を管理するものもあると考えられる。このことから、外部コンテンツDB50には、メイク後の笑顔やピースをするなどの表情や動作を示す画像の特徴点情報に基づく差分情報が格納されていることも考えられ、この場合、この差分情報を事前に動作認識部18が取得する。ユーザによるメイクの完了後、かつこのメイク完了後に撮影された画像(例えば笑顔やピース)を表示させた状態で、動作認識部18が、差分抽出部13から差分情報(図2に示す特徴点情報から得た差分情報)および顔差分情報(図3に示す顔特徴点情報から得た差分情報)を取得し、これらの差分情報および顔差分情報と、外部コンテンツDB50から取得した笑顔やピースをするなどの表情や動作を示す画像の顔差分情報(ユーザの顔の部分)や差分情報(ユーザの顔以外の手など)とを比較し、差分情報および顔差分情報が、顔差分情報や差分情報と一致もしくは類似する、つまり、ユーザがメイクを完了していることの検出がなされると(S41)、ユーザが、メイク完了後の撮影画像、日付、メイクテーマ(例えば「お出かけ用」、メイクアイテムの情報源のURL、メイク方法の情報源のURL、ユーザによるメイクのお気に入り度)の保存を望む場合は、操作端末40に対する所定操作等を行なう。 Some applications registered in the external content DB 50 store, for example, a photographed image of the user when the user recognizes a facial expression or action such as a smile or a piece of the user, and manages the image. Conceivable. From this, it is conceivable that the external content DB 50 stores difference information based on feature point information of an image indicating a facial expression or an action such as making a smile or making a piece after makeup. In this case, the difference information Is acquired in advance by the motion recognition unit 18. After the makeup by the user is completed, and in a state in which an image (for example, a smile or a piece) photographed after the completion of the makeup is displayed, the action recognition unit 18 sends the difference information (the feature point information shown in FIG. ) And face difference information (difference information obtained from the face feature point information shown in FIG. 3), and performs the difference information and the face difference information together with the smile or piece obtained from the external content DB 50. The face difference information (the face of the user) and the difference information (the hand other than the user's face, etc.) of the image indicating the facial expression and motion are compared, and the difference information and the face difference information are compared with the face difference information or the difference information. When it is detected that the user has completed the makeup (S41), the user can determine the captured image, date, and makeup theme (for example, “for going out”). , URL sources of makeup items, URL sources makeup method, if wishing to save makeup preference degrees) by the user, performs a predetermined operation or the like on the operation terminal 40.
すると、テーマ選択部15は、テーマ情報を追加し、このテーマ情報に紐づけて、メイク完了後の撮影画像と、日付、メイク方法やポイント等のメイク情報を例えば外部コンテンツDB50を介して外部コンテンツ70や操作端末40に保存させる(S42)。さらに、提示情報格納部20には、例えば「No。=3、状況ID=0、テーマID=2、部位ID=-、道具ID=-、提示内容=メイクテーマ(過去のお気に入りメイク)の詳細、内容詳細=以下の2つがあるよ!(過去のメイク内容)」という提示情報を格納しているとすると、提示情報格納部20は、外部コンテンツDB50から「内容詳細」に対応するメイク完了後の撮影画像、日付、メイクテーマ、メイク情報を取得し、保存する。上記のメイクのお気に入り度は、メイク完了後にユーザが操作端末40への操作等を行うことで設定されることができる。
また、ユーザが、メイク完了後の撮影画像、日付、メイクテーマの保存を望まない場合は、操作端末40に対する所定操作等を行うことで、保存を行わないようにすることもできる。
Then, the theme selecting unit 15 adds the theme information, and links the captured image and the makeup information such as the date, the makeup method, and the points with the theme information to the external content via the external content DB 50, for example. 70 and the operation terminal 40 (S42). Further, in the presentation information storage unit 20, for example, “No. = 3, situation ID = 0, theme ID = 2, site ID = −, tool ID = −, presentation content = make-theme (past favorite make-up) details , Content details = there are the following two! (Past makeup contents) ", and the presentation information storage unit 20 stores the makeup information corresponding to" content details "from the external content DB 50 after completion of the makeup information. Get and save the shooting image, date, makeup theme, makeup information. The above-mentioned make-up favorite degree can be set by the user operating the operation terminal 40 or the like after the make-up is completed.
If the user does not want to save the captured image, date, and makeup theme after makeup is completed, the user can perform a predetermined operation on the operation terminal 40 or the like so that the saving is not performed.
また、この保存とともに、提示情報取得部19は、上記の日付、メイクテーマなどの保存の通知メッセージ(例えば、上手にできたね!保存しておくね。)とのメッセージを、図21に示すように出力装置60の画面上に表示させる。 At the same time as this storage, the presentation information acquisition unit 19 sends a message indicating that the date, makeup theme, and the like have been saved (for example, the job is well done! Save it as shown in FIG. 21). Is displayed on the screen of the output device 60.
そして、技術支援装置10の使用を終了し、ユーザが次回のメイクを行う際に、技術支援装置10を再び動作させ、上記の人物認証が再度なされた後で、かつユーザが写る撮影画像を表示させた状態で、ユーザが操作端末40に対して、前回の同じメイクテーマに従うメイク方法などの提示を指示するための操作(例えば、「前にしたお出かけ用のメイク方法を教えて!」などの文字入力や音声入力)を行なう。 Then, the use of the technical support device 10 is terminated, and when the user performs the next make-up, the technical support device 10 is operated again, and after the above-described person authentication is performed again, a captured image in which the user is displayed is displayed. In this state, the user instructs the operation terminal 40 to present the last time a make-up method according to the same make-up theme (for example, “Tell me the make-up method for going out before!” Character input or voice input).
すると、提示情報取得部19は、提示情報格納部20における上記の「No。3」に対応する提示情報、すなわち、上記のように前回以前の、ここでは過去2回のメイク完了時に保存した、メイク完了後の撮影画像、日付、メイクテーマ(例えば「お出かけ用」、メイクアイテムの情報源のURL、メイク方法の情報源のURL、ユーザによるメイクのお気に入り度)を取得する。提示情報取得部19は、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。2」の行で定められる、上記の取得した各種情報を取得した後に、「No。3」の提示情報を取得し、図22に示すように出力装置60の画面上に表示させる(S43)。 Then, the presentation information acquisition unit 19 saves the presentation information corresponding to the above “No. 3” in the presentation information storage unit 20, that is, as described above, at the time of completion of the previous and previous make-up in the past two times, The photographed image after makeup is completed, the date, and the makeup theme (for example, “going out”, the URL of the information source of the makeup item, the URL of the information source of the makeup method, and the degree of favorite of the makeup by the user) are acquired. The presentation information acquisition unit 19 acquires the various types of information acquired in the presentation information storage unit 20 shown in FIG. .3 "is obtained and displayed on the screen of the output device 60 as shown in FIG. 22 (S43).
以上のように、本実施形態では、技術支援装置10により、ユーザがメイク作業を行う際に、適切な技術支援を行うことができる。 As described above, in the present embodiment, the technical support device 10 can provide appropriate technical support when a user performs a makeup operation.
(処理分割および配置について)
なお、上述の実施形態では、1つの技術支援装置10として処理を実行している例を示しているが、この処理をサーバとクライアント(ユーザ端末)とで分散して実行させてもよい。
(About processing division and arrangement)
Note that, in the above-described embodiment, an example in which the processing is executed as one technical support apparatus 10 is described. However, this processing may be executed separately by the server and the client (user terminal).
例えば、処理コストが高い処理(例えば、特徴点検出部12、差分抽出部13、状況認識部16、対象領域認識部17、動作認識部18、提示情報取得部19、提示情報生成部21、提示タイミング制御部22による処理)をサーバで実行し、大量のデータを必要とするデータベース(例えば、特徴点情報格納部14、提示情報格納部20、提示タイミング格納部23、外部コンテンツDB50)をサーバの記憶装置に実現し、その他の機能(例えば、画像取得部11,テーマ選択部15)をクライアントで実行する処理構成としてもよい。 For example, processing with a high processing cost (for example, feature point detection unit 12, difference extraction unit 13, situation recognition unit 16, target region recognition unit 17, motion recognition unit 18, presentation information acquisition unit 19, presentation information generation unit 21, presentation The processing performed by the timing control unit 22) is executed by the server, and a database (for example, the feature point information storage unit 14, the presentation information storage unit 20, the presentation timing storage unit 23, and the external content DB 50) that requires a large amount of data is stored in the server. The processing may be implemented in a storage device and execute other functions (for example, the image acquisition unit 11 and the theme selection unit 15) on the client.
または、提示情報を生成するまでの処理(画像取得部11、特徴点検出部12、差分抽出部13、特徴点情報格納部14、テーマ選択部15、状況認識部16、対象領域認識部17、動作認識部18、提示情報取得部19、提示情報生成部21、外部コンテンツDB50による処理)をクライアントで実行し、提示情報の提示タイミングの制御(提示タイミング制御部22、提示タイミング格納部23)をサーバで実行する処理構成としてもよい。 Alternatively, processing until the presentation information is generated (the image acquisition unit 11, the feature point detection unit 12, the difference extraction unit 13, the feature point information storage unit 14, the theme selection unit 15, the situation recognition unit 16, the target region recognition unit 17, The client executes the action recognition unit 18, the presentation information acquisition unit 19, the presentation information generation unit 21, and the external content DB 50), and controls the presentation timing of the presentation information (the presentation timing control unit 22, the presentation timing storage unit 23). The processing may be executed by a server.
上記のようにサーバとクライアントとで処理を分散して処理を実行する場合では、これらのサーバとクライアントとの間での画像や座標値情報などのやり取りが必要となるため、画像の全フレームをやりとりする代わりに、やり取りする画像の間引き処理や画像形式の変更処理等を行うことが望ましい。間引き処理は、例えば、画像の数フレームおきについて行なったり、画像の前フレームと現在のフレームとの差分のみについて行なったりすればよい。また、変更処理は、例えば、1フレームの画像データでなく、特徴点検出部12で特定された特徴点の座標情報のみを取り出してもよい。また、変更処理は、画像取得部11で、圧縮処理等をした画像データを取り出すことも考えられる。さらに、差分抽出部13で抽出した差分情報の座標情報を取り出すことも考えられる。 When processing is executed by distributing processing between the server and the client as described above, it is necessary to exchange images and coordinate value information between the server and the client. Instead of exchanging, it is desirable to perform a thinning process of the exchanged image, a process of changing the image format, and the like. The thinning process may be performed, for example, for every several frames of the image, or only for the difference between the previous frame of the image and the current frame. In the change processing, for example, only the coordinate information of the feature point specified by the feature point detection unit 12 may be extracted instead of the image data of one frame. In the change process, the image acquisition unit 11 may extract image data that has been subjected to a compression process or the like. Furthermore, it is conceivable that coordinate information of the difference information extracted by the difference extracting unit 13 is extracted.
(メイク以外の適用例)
上述の説明では、技術支援装置10の適用例としてユーザがメイクを行なう場合を想定して説明したが、これに限らず、例えば、ドクターや医大生に対する手術のコーチングにも適応できる。
(Application examples other than makeup)
Although the above description has been made on the assumption that the user performs makeup as an application example of the technical support apparatus 10, the present invention is not limited to this, and is applicable to, for example, coaching of surgery for doctors and medical college students.
具体的には、画像取得部11としては、タブレット等の端末のインカメラや周辺に取り付けたカメラから画像を取得する構成が挙げられる。また、出力装置60としては、タブレットやモニタやHMD(ヘッドマウントディスプレイ)(登録商標)等を用いることが挙げられる。
特徴点検出部12としては、人体(人体模型)での手術する領域周辺を撮影した画像において、体の部位や骨筋等の身体の特徴点を抽出することが挙げられる。
Specifically, the image acquisition unit 11 may be configured to acquire an image from an in-camera of a terminal such as a tablet or a camera attached to the periphery. As the output device 60, a tablet, a monitor, an HMD (Head Mount Display) (registered trademark), or the like may be used.
The feature point detection unit 12 may extract a body feature point, such as a body part or a bone muscle, in an image obtained by photographing a region around a surgical operation on a human body (a human body model).
差分抽出部13としては、体の部位や骨筋等の身体の特徴点等の、手術状態に関する特徴点情報と、画像全体における特徴点情報を特徴点情報格納部14に格納し、格納された特徴点情報と最新フレームの特徴点情報とを比較して差分情報を得ることが挙げられる。 The difference extraction unit 13 stores feature point information on the operation state, such as body feature points such as body parts and bone muscles, and feature point information on the entire image in the feature point information storage unit 14 and stores the feature point information. The difference information may be obtained by comparing the feature point information with the feature point information of the latest frame.
状況認識部16の状況判定部16aとしては、差分情報を用いて、参考状態格納部16bから手術前、手術中、手術後等の作業状況を導き出すことが挙げられる。
参考状態格納部16bとしては、手術内容や身体の部位ごとに、画像の特徴点座標や色の理論値(人体模型と人の身体)、差分値に対する状況情報(状況ID)を格納することが挙げられる。
The situation determination unit 16a of the situation recognition unit 16 may derive work conditions before, during, and after the operation from the reference state storage unit 16b using the difference information.
The reference state storage unit 16b stores the feature point coordinates of images, theoretical values of colors (human body model and human body), and situation information (situation ID) for difference values for each operation content and body part. No.
対象領域認識部17としては対象領域取得部17aとしては、身体に関する差分情報を元に対象領域を取得することが挙げられる。対象領域とは、身体の部位と考えられる。また、この道具認識部17bは、特徴点情報を用いて道具情報格納部17dに格納される道具情報から対象領域(部位ID)や道具を示す情報を取得することができる。 As the target area recognizing unit 17, the target area obtaining unit 17a may obtain a target area based on difference information about the body. The target area is considered to be a body part. Further, the tool recognition unit 17b can acquire information indicating the target area (part ID) and the tool from the tool information stored in the tool information storage unit 17d using the feature point information.
道具情報格納部17dには、メスやピンセット等の手術道具に関する特徴点情報と色情報の理論値を事前に格納することができる。
対象領域判定部17cは、対象領域取得部17aと道具認識部17bとから受け取った対象領域や道具を判定し、この判定結果を提示情報取得部19に出力することができる。
The tool information storage unit 17d can store in advance characteristic point information and color information theoretical values regarding surgical tools such as a scalpel and tweezers.
The target area determination unit 17c can determine the target area or tool received from the target area acquisition unit 17a and the tool recognition unit 17b, and can output the determination result to the presentation information acquisition unit 19.
動作認識部18は、差分抽出部13から取得した差分情報をもとに手を挙げる等の動作を認識し、動作を示す情報を、提示情報取得部19へ出力する。 The motion recognition unit 18 recognizes a motion such as raising a hand based on the difference information acquired from the difference extraction unit 13 and outputs information indicating the motion to the presentation information acquisition unit 19.
提示情報取得部19は、受け取った状況情報と対象領域道具の判定結果とを用いて、提示情報格納部20から提示情報を取得し、提示情報生成部21へ出力することができる。
提示情報格納部20には、手術の方法やポイント等手術に関する情報や緊急手術への対応や災害情報等、手術以外の情報を格納すさることができる。提示情報生成部21では、提示情報を受け取って、提示情報を補正し出力する形式にして、提示タイミング制御部22へ出力する。
The presentation information acquisition unit 19 can acquire the presentation information from the presentation information storage unit 20 using the received situation information and the determination result of the target area tool, and can output the presentation information to the presentation information generation unit 21.
The presentation information storage unit 20 can store information other than the surgery, such as information on the surgery, such as the method and points of the surgery, correspondence to emergency surgery, and disaster information. The presentation information generation unit 21 receives the presentation information, corrects the presentation information, and outputs the corrected presentation information to the presentation timing control unit 22.
提示タイミング制御部22は、受け取った処理を施された提示情報を用いて、提示タイミング格納部23から提示タイミング情報を取得する。提示タイミング格納部23には、手術の方法やポイント等手術に関する情報や緊急手術への対応や災害情報等、手術以外の情報といった提示する内容に対応して提示するタイミングの情報が格納されている。提示タイミング制御部22は、取得した提示タイミングに合わせて処理を施された提示情報を出力装置60へ出力する。 The presentation timing control unit 22 acquires presentation timing information from the presentation timing storage unit 23 using the received presentation information subjected to the processing. The presentation timing storage unit 23 stores timing information to be presented in correspondence with the content to be presented, such as information about the operation such as the method of operation and points, information on non-operation such as correspondence to emergency operation and disaster information. . The presentation timing control unit 22 outputs presentation information processed in accordance with the acquired presentation timing to the output device 60.
(その他の適用例)
なお、技術支援装置10は、手術以外にも、例えば筆を用いた習字等文字の書き方のコーチング、工場の作業支援等にも適用することができる。つまり、ユーザの作業の情報やユーザが使用する道具の情報が取得できるケースであれば、どのようなものでも本実施形態に係る技術支援装置10を利用できる。
(Other application examples)
In addition to the operation, the technical support apparatus 10 can be applied to, for example, coaching of how to write a character such as a calligraphy using a brush, work support in a factory, and the like. That is, the technical support device 10 according to the present embodiment can be used in any case as long as the information on the work of the user and the information on the tools used by the user can be obtained.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements in an implementation stage without departing from the scope of the invention. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, components of different embodiments may be appropriately combined.
また、各実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラム(ソフトウエア手段)として、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウエア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウエア手段を構築し、このソフトウエア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。 In addition, the method described in each embodiment can be implemented by a computer (computer) as a program (software means) such as a magnetic disk (floppy (registered trademark) disk, hard disk, or the like), an optical disk (CD-ROM, It can be stored in a recording medium such as a DVD, MO, or a semiconductor memory (ROM, RAM, flash memory, etc.), and can also be transmitted and distributed via a communication medium. The program stored on the medium side includes a setting program for causing the computer to execute software means (including not only the execution program but also tables and data structures) to be executed in the computer. A computer that realizes the present apparatus reads a program recorded on a recording medium, and in some cases, constructs software means by using a setting program, and executes the above-described processing by controlling the operation of the software means. The recording medium referred to in the present specification is not limited to a medium for distribution, but includes a storage medium such as a magnetic disk or a semiconductor memory provided in a computer or a device connected via a network.
10…技術支援装置、11…画像取得部、12…特徴点検出部、13…差分抽出部、14…特徴点情報格納部、15…テーマ選択部、16…状況認識部、17…対象領域認識部、18…動作認識部、19…提示情報取得部、20…提示情報格納部、21…提示情報生成部、22…提示タイミング制御部、23…提示タイミング格納部、30…カメラ、40…操作端末、50…外部コンテンツDB、60…出力装置、70…外部コンテンツ。 DESCRIPTION OF SYMBOLS 10 ... Technical support apparatus, 11 ... Image acquisition part, 12 ... Feature point detection part, 13 ... Difference extraction part, 14 ... Feature point information storage part, 15 ... Theme selection part, 16 ... Situation recognition part, 17 ... Target area recognition Unit, 18 operation recognition unit, 19 presentation information acquisition unit, 20 presentation information storage unit, 21 presentation information generation unit, 22 presentation timing control unit, 23 presentation timing storage unit, 30 camera, 40 operation Terminal, 50: external content DB, 60: output device, 70: external content.
Claims (8)
前記取得した対象画像から特徴点情報を検出する特徴点検出手段と、
前記検出した特徴点情報を格納する特徴点情報格納手段と、
前記格納した特徴点情報のフレーム間の差分情報を抽出する差分抽出手段と、
前記処理対象に対する前記ユーザの作業のテーマを示すテーマ情報を選択するテーマ選択手段と、
前記ユーザに対する提示情報を格納する提示情報格納手段と、
前記差分情報および前記選択した前記テーマ情報に基づいて、前記ユーザによる作業前から作業後までを含む複数の段階のそれぞれに係る状況のうち、前記作業に係る現在の状況を認識する状況認識手段と、
前記差分情報および前記選択したテーマ情報に基づいて、前記処理対象に対してユーザが作業する部分である対象領域を認識する対象領域認識手段と、
前記差分情報に基づいて、前記ユーザの動作を認識する動作認識手段と、
前記差分抽出手段により前記差分情報が抽出された場合に、前記状況認識手段による認識の結果、前記対象領域認識手段により認識した前記対象領域の情報、および前記動作認識手段による認識の結果に基づいて、前記提示情報格納手段に格納される提示情報から前記ユーザへの提示情報を取得する提示情報取得手段と、
前記取得した提示情報に対して所定の処理を施した情報を生成する提示情報生成手段と、
提示内容ごとに、前記提示情報を提示するタイミングに関する情報を格納する提示タイミング格納手段と、
前記提示情報生成手段により生成された情報をもとに、前記提示タイミング格納手段から前記提示情報を提示するタイミングに関する情報を取得し、この情報をもとに、所定の処理を施した提示情報を出力装置に出力する提示タイミング制御手段とを備えたことを特徴とする技術支援装置。 Image acquisition means for acquiring a target image which is an image relating to a processing target including a user ,
Feature point detection means for detecting feature point information from the acquired target image,
Feature point information storage means for storing the detected feature point information;
Difference extracting means for extracting difference information between frames of the stored feature point information,
And theme selection means for selecting a theme information indicating the work theme of the user with respect to the processing target,
Presentation information storage means for storing presentation information for the user;
Based on the difference information and the selected theme information, a situation recognition unit that recognizes a current situation related to the work , among situations related to each of a plurality of stages including before to after work by the user. ,
Based on the difference information and the selected theme information, a target area recognition unit that recognizes a target area that is a part where a user works on the processing target,
An operation recognizing unit that recognizes the operation of the user based on the difference information;
When the difference information is extracted by the difference extraction unit, based on a result of recognition by the situation recognition unit, information on the target region recognized by the target region recognition unit, and a result of recognition by the operation recognition unit. Presentation information acquisition means for acquiring presentation information to the user from presentation information stored in the presentation information storage means;
Presentation information generating means for generating information obtained by performing predetermined processing on the obtained presentation information,
Presentation timing storage means for storing information about the timing of presenting the presentation information for each presentation content;
Based on the information generated by the presentation information generation unit, information on the timing of presenting the presentation information is obtained from the presentation timing storage unit, and based on this information, the presentation information subjected to a predetermined process is obtained. A technical support device comprising: a presentation timing control unit that outputs to an output device.
前記特徴点情報に基づく前記差分情報を抽出し、
前記ユーザが参考とする作業の状況を示す状況情報を格納する参考状態格納手段をさらに備え、
前記状況認識手段は、
前記差分情報および前記状況情報に基づいて、前記ユーザの作業の状況を判定する状況判定手段を有することを特徴とする請求項1に記載の技術支援装置。 The difference extracting means,
Extracting the difference information based on the feature point information,
Further comprising a reference state storage means for storing status information indicating the status of the work to be referred to by the user,
The situation recognition means,
2. The technical support device according to claim 1, further comprising a status determination unit configured to determine a status of the user's work based on the difference information and the status information.
前記差分抽出手段は、
前記特徴点情報に基づく前記差分情報を抽出し、
前記ユーザが作業に用いる道具、および、前記道具を用いた作業の対象である対象領域の関係を示す道具情報を格納する道具情報格納手段をさらに備え、
前記対象領域認識手段は、
前記特徴点情報に基づく前記差分情報に基づいて前記道具を用いた作業の対象である対象領域を取得する対象領域取得手段と、
前記特徴点情報に基づく前記差分情報および前記道具情報に基づいて、前記道具を用いた作業の対象である対象領域および前記道具の情報を取得する道具認識手段と、
前記対象領域取得手段により取得した前記対象領域および前記道具認識手段により取得した前記対象領域および前記道具の情報の判定を行い、判定結果を前記対象領域認識手段による認識の結果として出力する対象領域判定手段とをさらに有することを特徴とする請求項1に記載の技術支援装置。 The processing target includes a tool used by the user for work,
The difference extracting means,
Extracting the difference information based on the feature point information,
A tool used by the user for work, and tool information storage means for storing tool information indicating a relationship between target areas which are targets of work using the tool,
The target area recognition means,
A target area acquisition unit that acquires a target area that is a target of work using the tool based on the difference information based on the feature point information,
Tool recognition means for acquiring information on the target area and the tool, which is a target of work using the tool , based on the difference information and the tool information based on the feature point information,
A target area determination for determining information of the target area and the tool obtained by the target area and the tool recognition means obtained by the target area obtaining means, and outputting a determination result as a result of recognition by the target area recognition means; 2. The technical support device according to claim 1, further comprising: means.
前記テーマの種別ごとに前記状況情報を格納し、
前記状況判定手段は、
前記テーマ選択手段により選択したテーマ情報、前記特徴点情報に基づく前記差分情報、および前記状況情報に基づいて、前記テーマ選択手段により選択したテーマ情報にかかわる、前記ユーザの作業の状況を判定することを特徴とする請求項2に記載の技術支援装置。 The reference state storage means,
Storing the status information for each type of the theme;
The situation determination means includes:
Determining, based on the theme information selected by the theme selecting means, the difference information based on the feature point information, and the situation information, a situation of the user's work related to the theme information selected by the theme selecting means; The technical support device according to claim 2, wherein:
前記テーマの種別ごとに前記道具情報を格納し、
前記対象領域取得手段は、
前記テーマ選択手段により選択したテーマ情報および前記特徴点情報に基づく前記差分情報に基づいて前記対象領域を取得し、
前記道具認識手段は、
前記テーマ選択手段により選択したテーマ情報、前記特徴点情報に基づく前記差分情報に基づいて、前記対象領域および前記道具の情報を取得することを特徴とする請求項3に記載の技術支援装置。 The tool information storage means,
Storing the tool information for each type of the theme;
The target area acquisition means,
Acquiring the target area based on the difference information based on the theme information and the feature point information selected by the theme selection means,
The tool recognition means,
4. The technical support device according to claim 3, wherein information on the target area and the tool is acquired based on the theme information selected by the theme selection unit and the difference information based on the feature point information.
前記ユーザを含む処理対象に関する画像である対象画像を取得し、
前記取得した対象画像から特徴点情報を検出し、
前記検出した特徴点情報を特徴点情報格納手段に格納し、
前記格納した特徴点情報のフレーム間の差分情報を抽出し、
前記処理対象に対する前記ユーザの作業のテーマを示すテーマ情報を選択し、
前記差分情報および前記選択した前記テーマ情報に基づいて、前記ユーザによる作業前から作業後までを含む複数の段階のそれぞれに係る状況のうち、前記作業に係る現在の状況を認識し、
前記差分情報および前記選択したテーマ情報に基づいて、前記処理対象に対してユーザが作業する部分である対象領域を認識し、
前記差分情報に基づいて、前記ユーザの動作を認識し、
前記差分情報が抽出された場合に、前記状況の認識の結果、前記認識した前記対象領域の情報、および前記ユーザの動作の認識の結果に基づいて、前記提示情報格納手段に格納される提示情報から前記ユーザへの提示情報を取得し、
前記取得した提示情報に対して所定の処理を施した情報を生成し、
前記生成された情報をもとに、提示内容ごとに、前記提示情報を提示するタイミングに関する情報を格納する提示タイミング格納手段から、前記提示情報を提示するタイミングに関する情報を取得し、この情報をもとに、所定の処理を施した提示情報を出力装置に出力することを特徴とする技術支援方法。 A method applied to a technical support apparatus having presentation information storage means for storing presentation information for a user,
Obtaining a target image that is an image related to a processing target including the user ,
Detecting feature point information from the acquired target image,
The detected feature point information is stored in feature point information storage means,
Extracting difference information between frames of the stored feature point information,
Select a theme information indicating the work theme of the user with respect to the processing target,
Based on the difference information and the selected theme information, among the situations relating to each of a plurality of stages including from before the work to after the work by the user , the current situation related to the work is recognized,
Based on the difference information and the selected theme information, recognizing a target area that is a part where a user works on the processing target,
Based on the difference information, recognize the operation of the user,
When the difference information is extracted, the presentation information stored in the presentation information storage means based on the recognition result of the situation, the recognized information of the target area, and the recognition result of the user's operation. Obtain presentation information to the user from
Generate information obtained by performing predetermined processing on the obtained presentation information,
On the basis of the generated information, for each of the presentation contents, from the presentation timing storage means for storing information on the timing of presenting the presentation information, obtain information on the timing of presenting the presentation information, and And outputting presentation information subjected to predetermined processing to an output device.
前記サーバは、
ユーザを含む処理対象に関する画像である対象画像から特徴点情報を検出する特徴点検出手段と、
前記特徴点情報のフレーム間の差分情報を抽出する差分抽出手段と、
前記検出した特徴点情報を格納する特徴点情報格納手段と、
前記差分情報および前記処理対象に対する前記ユーザの作業のテーマを示すテーマ情報に基づいて、前記ユーザによる作業前から作業後までを含む複数の段階のそれぞれに係る状況のうち、前記作業に係る現在の状況を認識する状況認識手段と、
前記ユーザに対する提示情報および前記テーマ情報に基づいて、前記処理対象に対してユーザが作業する部分である対象領域を認識する対象領域認識手段と、
前記差分情報に基づいて、前記ユーザの動作を認識する動作認識手段と、
前記差分抽出手段が前記差分情報を抽出した場合に、前記状況認識手段による認識の結果、および前記対象領域認識手段により認識した前記対象領域の情報に基づいて、前記提示情報から前記ユーザへの提示情報を取得する提示情報取得手段と、
前記提示情報を格納する提示情報格納手段と、
前記取得した提示情報に対して所定の処理を施した情報を生成する提示情報生成手段と、
前記提示情報生成手段により出力された情報をもとに、前記提示情報を提示するタイミングに関する情報を取得し、この情報をもとに、所定の処理を施した提示情報を出力装置に出力する提示タイミング制御手段と、
提示内容ごとに、前記提示情報を提示するタイミングに関する情報を格納する提示タイミング格納手段と、を具備し、
前記クライアントは、
前記対象画像を取得する画像取得手段と、
前記テーマ情報を選択するテーマ選択手段と、を具備することを特徴とする技術支援システム。 A technical support system including a client and a server,
The server is
Feature point detection means for detecting feature point information from a target image that is an image relating to a processing target including a user ;
Difference extracting means for extracting difference information between frames of the feature point information,
Feature point information storage means for storing the detected feature point information;
Based on the difference information and the processing theme information indicating the work theme of the user for the subject, among the conditions according to each of a plurality of steps up to and including post-work before the work by the user, the current according to the working Situation recognition means for recognizing the situation;
A target area recognition unit that recognizes a target area that is a part where the user works on the processing target based on the presentation information and the theme information for the user;
An operation recognizing unit that recognizes the operation of the user based on the difference information;
When the difference extracting means extracts the difference information, the presentation information is presented to the user from the presentation information based on the result of the recognition by the situation recognizing means and the information of the target area recognized by the target area recognizing means. Presentation information acquisition means for acquiring information;
Presentation information storage means for storing the presentation information;
Presentation information generating means for generating information obtained by performing predetermined processing on the obtained presentation information,
A step of obtaining information relating to the timing of presenting the presentation information based on the information output by the presentation information generating means, and outputting the presentation information subjected to a predetermined process to the output device based on the information; Timing control means;
A presentation timing storage unit for storing information on a timing of presenting the presentation information for each presentation content,
The client,
Image acquisition means for acquiring the target image,
A technical selecting system for selecting the theme information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016101960A JP6670677B2 (en) | 2016-05-20 | 2016-05-20 | Technical support apparatus, method, program and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016101960A JP6670677B2 (en) | 2016-05-20 | 2016-05-20 | Technical support apparatus, method, program and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017208051A JP2017208051A (en) | 2017-11-24 |
JP6670677B2 true JP6670677B2 (en) | 2020-03-25 |
Family
ID=60415612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016101960A Active JP6670677B2 (en) | 2016-05-20 | 2016-05-20 | Technical support apparatus, method, program and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6670677B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159817A (en) * | 2018-03-13 | 2019-09-19 | 株式会社サイトビジット | Examination community system |
WO2020084842A1 (en) * | 2018-10-24 | 2020-04-30 | 株式会社資生堂 | Program, information processing device, quantification method, and information processing system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072861A (en) * | 2000-09-01 | 2002-03-12 | Ibic Service:Kk | Hairdressing art lecture system |
JP4764273B2 (en) * | 2006-06-30 | 2011-08-31 | キヤノン株式会社 | Image processing apparatus, image processing method, program, and storage medium |
JP5872829B2 (en) * | 2010-10-01 | 2016-03-01 | 株式会社レイトロン | Motion analysis device |
JP2012181688A (en) * | 2011-03-01 | 2012-09-20 | Sony Corp | Information processing device, information processing method, information processing system, and program |
JP2014191813A (en) * | 2013-03-28 | 2014-10-06 | Ntt Docomo Inc | Making-up action assisting device, making-up action assisting system, and making-up action assisting method |
-
2016
- 2016-05-20 JP JP2016101960A patent/JP6670677B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017208051A (en) | 2017-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11893828B2 (en) | System and method for image de-identification | |
JP6055160B1 (en) | Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program | |
US11908052B2 (en) | System and method for digital makeup mirror | |
US9734628B2 (en) | Techniques for processing reconstructed three-dimensional image data | |
US20160042557A1 (en) | Method of applying virtual makeup, virtual makeup electronic system, and electronic device having virtual makeup electronic system | |
WO2018221092A1 (en) | Image processing device, image processing system, image processing method, and program | |
JP6369246B2 (en) | Caricature generating device and caricature generating method | |
JPWO2008102440A1 (en) | Makeup face image generating apparatus and method | |
WO2018076622A1 (en) | Image processing method and device, and terminal | |
JP5949030B2 (en) | Image generating apparatus, image generating method, and program | |
JPWO2018012136A1 (en) | MAKE-UP SUPPORT DEVICE AND MAKE-UP SUPPORT METHOD | |
JP2012128597A (en) | Information processing apparatus, information processing method and program therefor | |
JP2014048766A (en) | Image generating device, image generating method, and program | |
JP2020016961A (en) | Information processing apparatus, information processing method, and information processing program | |
JP6111723B2 (en) | Image generating apparatus, image generating method, and program | |
US11321764B2 (en) | Information processing apparatus and information processing method | |
JP2019048026A (en) | Biological information analysis device and hand skin analysis method | |
JP6670677B2 (en) | Technical support apparatus, method, program and system | |
JP2011022733A (en) | Device and program for simulating makeup, and counter selling support method | |
JP2019046239A (en) | Image processing apparatus, image processing method, program, and image data for synthesis | |
JP6710095B2 (en) | Technical support device, method, program and system | |
JP5966657B2 (en) | Image generating apparatus, image generating method, and program | |
KR102247481B1 (en) | Device and method for generating job image having face to which age transformation is applied | |
JP7314509B2 (en) | Information processing device, information processing method and program | |
JP7247579B2 (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190827 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6670677 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |