JP2023028527A - Bedclothes proposition system and bedclothes proposition method - Google Patents

Bedclothes proposition system and bedclothes proposition method Download PDF

Info

Publication number
JP2023028527A
JP2023028527A JP2021134282A JP2021134282A JP2023028527A JP 2023028527 A JP2023028527 A JP 2023028527A JP 2021134282 A JP2021134282 A JP 2021134282A JP 2021134282 A JP2021134282 A JP 2021134282A JP 2023028527 A JP2023028527 A JP 2023028527A
Authority
JP
Japan
Prior art keywords
image
user
bedding
shape data
neck
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021134282A
Other languages
Japanese (ja)
Inventor
由佳 東海林
Yuka SHOJI
皓大 三宅
Kodai Miyake
翠 安藤
Midori Ando
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nishikawa Co Ltd
Original Assignee
Nishikawa Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nishikawa Co Ltd filed Critical Nishikawa Co Ltd
Priority to JP2021134282A priority Critical patent/JP2023028527A/en
Publication of JP2023028527A publication Critical patent/JP2023028527A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide a bedclothes proposition system and a bedclothes proposition method which can propose bedclothes sufficiently with high accuracy.SOLUTION: A bedclothes proposition system according to an embodiment is a bedclothes proposition system 1 used in proposing bedclothes to a user. The bedclothes proposition system 1 includes: a front face image acquisition unit 12 which acquires an image of a front face of the user; a side face image acquisition unit 14 which acquires an image of a side face of the user; a body data calculation unit 17 which calculates shape data of a neck of the user from the image of the side face and calculates shape data of a shoulder of the user from the image of the front face; a determination unit 18 which determines a height of the bedclothes from the shape data of the neck; a comment extraction unit 19 which extracts a comment according to the shape data of the neck and the shape data of the shoulder; and a display unit 20 which displays the height of the bedclothes determined by the determination unit 18 and the comment extracted by the comment extraction unit 19.SELECTED DRAWING: Figure 1

Description

本開示は、寝具を提案する寝具提案システム及び寝具提案方法に関する。 The present disclosure relates to a bedding proposal system and a bedding proposal method for suggesting bedding.

特開2015-94740号公報には、枕の高さ決定装置が記載されている。枕の高さ決定装置は、タブレット端末によって用いられる。高さ決定装置は、制御部、カメラ、表示部、タッチパネル、記憶部、及び通信部を有する。記憶部には、枕の画像、枕の素材別の価格の一覧表、が記憶されている。 JP 2015-94740 describes a pillow height determination device. The pillow height determination device is used by a tablet terminal. The height determination device has a control section, a camera, a display section, a touch panel, a storage section, and a communication section. The storage unit stores images of pillows and a price list for each pillow material.

制御部は、取得部、位置決定部、第1直線算出部、第2直線算出部、角度算出部、高さ算出部、及び寝具画像生成部を有する。取得部は、被験者が真っ直ぐに立ったときの横の姿を撮影したカメラによって得られた人物画像を取得して表示部に表示する。位置決定部は、当該人物画像中の被験者の後頭部、頸椎、背中、腰及び臀部の位置を決定する。 The control unit has an acquisition unit, a position determination unit, a first straight line calculation unit, a second straight line calculation unit, an angle calculation unit, a height calculation unit, and a bedding image generation unit. The acquiring unit acquires a human image obtained by a camera that captures a side view of the subject when the subject stands straight, and displays the human image on the display unit. The position determination unit determines positions of the back of the head, cervical vertebrae, back, waist and buttocks of the subject in the person image.

第1直線算出部は後頭部の位置と背中の位置とを結ぶ第1直線を算出し、第2直線部は背中と臀部とを結ぶ第2直線を算出する。角度算出部は、第1直線と第2直線との交差角度である頭傾斜角度を算出する。高さ決定部は、頭傾斜角度が大きいほど枕の高さが高くなるように枕の高さを決定する。寝具画像生成部は、決定された枕の高さの画像、敷き寝具の画像、及び人物画像を表示し、これらの画像が被験者に示される。 The first straight line calculator calculates a first straight line that connects the back of the head and the back, and the second straight line calculates a second straight line that connects the back and the buttocks. The angle calculator calculates a head tilt angle, which is an intersection angle between the first straight line and the second straight line. The height determination unit determines the height of the pillow so that the greater the head tilt angle, the higher the height of the pillow. The bedding image generator displays the determined pillow height image, bedding image, and person image, and these images are shown to the subject.

特開2015-94740号公報JP 2015-94740 A

前述した枕の高さ決定装置では、枕及び敷き寝具が人物画像と共に表示される。しかしながら、枕、敷き寝具及び人物画像が表示されるのみでは、使用者に十分な提案を行うことができず、提案としては不十分であるという現状がある。また、前述した枕の高さ決定装置では、被験者の横の姿が撮影されて得られた人物画像から被験者の身体の形状データを取得する。しかしながら、撮影環境及び撮影条件によっては、被検者の身体の形状データを高精度に取得できない場合がある。よって、寝具の提案の精度において改善の余地がある。 In the pillow height determination device described above, the pillow and the bedding are displayed together with the person image. However, the current situation is that the display of only the pillow, the bedding, and the image of the person is insufficient as a proposal because it is not possible to provide a sufficient proposal to the user. Further, in the above-described pillow height determining apparatus, shape data of the subject's body is acquired from a human image obtained by photographing the subject's lateral appearance. However, depending on the imaging environment and imaging conditions, it may not be possible to acquire the shape data of the subject's body with high accuracy. Therefore, there is room for improvement in the accuracy of bedding suggestions.

本開示は、十分且つ高精度に寝具を提案することができる寝具提案システム及び寝具提案方法を提供することを目的とする。 An object of the present disclosure is to provide a bedding proposal system and a bedding proposal method capable of sufficiently and highly accurately suggesting bedding.

本開示に係る寝具提案システムは、使用者に寝具を提案するときに用いられる寝具提案システムである。寝具提案システムは、使用者の正面の画像を取得する正面画像取得部と、使用者の側面の画像を取得する側面画像取得部と、側面の画像から使用者の首の形状データを算出すると共に、正面の画像から使用者の肩の形状データを算出する身体データ算出部と、首の形状データから寝具の高さを判定する判定部と、首の形状データ、及び肩の形状データに応じてコメントを抽出するコメント抽出部と、判定部によって判定された寝具の高さ、及びコメント抽出部によって抽出されたコメントを表示する表示部と、を備える。 A bedding proposal system according to the present disclosure is a bedding proposal system used when suggesting bedding to a user. The bedding proposal system includes a front image acquisition unit that acquires a front image of the user, a side image acquisition unit that acquires a side image of the user, and calculates neck shape data of the user from the side image. , a body data calculation unit that calculates shoulder shape data of the user from the front image, a determination unit that determines the height of bedding from the neck shape data, and a neck shape data and a shoulder shape data. A comment extraction unit for extracting comments, and a display unit for displaying the height of bedding determined by the determination unit and the comments extracted by the comment extraction unit.

この寝具提案システムでは、正面画像取得部が使用者の正面の画像を取得し、側面画像取得部が使用者の側面の画像を取得する。身体データ算出部は、使用者の側面の画像から使用者の首の形状データを算出すると共に、使用者の正面の画像から使用者の肩の形状データを算出する。よって、側面の画像から使用者の首の形状データを算出すると共に、正面の画像から使用者の肩の形状データを算出するので、使用者の身体の形状データを高精度に取得することができる。従って、寝具の提案の精度を高めることができる。この寝具提案システムにおいて、判定部は首の形状データから寝具の高さを判定すると共に、首の形状データ及び肩の形状データに基づいてコメント抽出部がコメントを抽出する。そして、判定された寝具の高さ、及び抽出されたコメントが表示部に表示される。従って、使用者の身体の形状データに基づいて寝具の高さ及びコメントが表示されるので、使用者は自分に相応しい寝具の高さを把握できると共にコメントによるアドバイスを受けることができる。よって、使用者に十分な提案を行うことができる。 In this bedding proposal system, the front image acquisition section acquires an image of the front of the user, and the side image acquisition section acquires an image of the side of the user. The body data calculation unit calculates shape data of the user's neck from the side image of the user, and calculates shape data of the user's shoulder from the front image of the user. Therefore, since the neck shape data of the user is calculated from the side image and the shoulder shape data of the user is calculated from the front image, the shape data of the user's body can be obtained with high accuracy. . Therefore, it is possible to improve the accuracy of bedding suggestions. In this bedding proposal system, the determination unit determines the height of the bedding from the neck shape data, and the comment extraction unit extracts comments based on the neck shape data and the shoulder shape data. Then, the determined bedding height and the extracted comment are displayed on the display unit. Therefore, since the height of the bedding and the comment are displayed based on the user's body shape data, the user can grasp the height of the bedding suitable for him/herself and receive advice from the comment. Therefore, a sufficient proposal can be made to the user.

身体データ算出部は、側面の画像から使用者の後頭部の形状データを更に算出してもよい。コメント抽出部は、首の形状データ、肩の形状データ、及び後頭部の形状データに応じてコメントを抽出してもよい。この場合、首の形状データ、及び肩の形状データに加えて、後頭部の形状データに基づいてコメントが抽出される。従って、コメントの抽出をより高精度に行うことができるので、使用者に対する寝具の提案の精度をより高めることができる。 The body data calculator may further calculate the shape data of the back of the user's head from the side image. The comment extraction unit may extract the comment according to the shape data of the neck, the shape data of the shoulders, and the shape data of the back of the head. In this case, comments are extracted based on the shape data of the back of the head in addition to the shape data of the neck and the shape data of the shoulders. Therefore, comments can be extracted with higher accuracy, so that the accuracy of bedding proposals to the user can be improved.

前述した寝具提案システムは、正面画像取得部によって取得された正面の画像、及び側面画像取得部によって取得された側面の画像のそれぞれと共にマークを表示するマーク表示部を備えてもよい。マークは、正面の画像、及び側面の画像のそれぞれにおいて移動可能とされていてもよく、身体データ算出部は、マークの位置に基づいて、首の形状データ、及び肩の形状データを算出してもよい。この場合、撮影された正面の画像、及び側面の画像のそれぞれに対して肩の位置、及び首の位置をマーキングし、マーキングされた位置に基づいて身体の形状データを算出することが可能である。従って、身体の形状データの精度を一層高めることができる。 The bedding proposal system described above may include a mark display unit that displays a mark together with each of the front image acquired by the front image acquisition unit and the side image acquired by the side image acquisition unit. The mark may be movable in each of the front image and the side image, and the body data calculation unit calculates neck shape data and shoulder shape data based on the position of the mark. good too. In this case, it is possible to mark the position of the shoulder and the position of the neck for each of the front image and the side image that have been photographed, and calculate body shape data based on the marked positions. . Therefore, the accuracy of body shape data can be further improved.

本開示に係る寝具提案方法は、使用者に寝具を提案する寝具提案方法である。寝具提案方法は、使用者の正面の画像を取得する工程と、使用者の側面の画像を取得する工程と、側面の画像から使用者の首の形状データを算出すると共に、正面の画像から使用者の肩の形状データを算出する工程と、首の形状データから寝具の高さを判定する工程と、首の形状データ、及び肩の形状データに応じてコメントを抽出する工程と、判定する工程において判定された寝具の高さ、及びコメントを抽出する工程において抽出されたコメントを表示する工程と、を備える。 A bedding proposal method according to the present disclosure is a bedding proposal method for suggesting bedding to a user. The bedding proposal method includes steps of acquiring a front image of the user, acquiring a side image of the user, calculating neck shape data of the user from the side image, and using the front image. a step of calculating shoulder shape data of the person; a step of determining the height of bedding from the neck shape data; a step of extracting comments according to the neck shape data and the shoulder shape data; and displaying the height of bedding determined in and the comments extracted in the step of extracting comments.

この寝具提案方法では、使用者の正面の画像が取得されると共に、使用者の側面の画像が取得される。そして、側面の画像から首の形状データが算出され、正面の画像から肩の形状データが算出される。従って、使用者の身体の形状データを高精度に取得することができるので、寝具の提案の精度を高めることができる。この寝具提案方法では、首の形状データから寝具の高さが判定されると共に、首の形状データ及び肩の形状データに基づいてコメントが抽出され、寝具の高さ及びコメントが表示される。従って、使用者の身体の形状データに基づいて寝具の高さが表示されるので、使用者は自分に相応しい寝具の高さを把握できる。更に、コメントが表示されることにより、使用者は自分の身体の形状データに基づく寝具のアドバイスを受けることができるので、使用者に十分な提案を行うことができる。 In this bedding proposal method, an image of the front of the user is obtained, and an image of the side of the user is obtained. Then, neck shape data is calculated from the side image, and shoulder shape data is calculated from the front image. Therefore, it is possible to obtain the shape data of the user's body with high accuracy, so that the accuracy of the bedding proposal can be improved. In this bedding proposal method, the height of the bedding is determined from the neck shape data, the comment is extracted based on the neck shape data and the shoulder shape data, and the bedding height and the comment are displayed. Therefore, since the height of the bedding is displayed based on the shape data of the user's body, the user can grasp the height of the bedding suitable for him/herself. Furthermore, by displaying the comments, the user can receive advice on bedding based on his/her own body shape data, so that a sufficient proposal can be made to the user.

前述した寝具提案方法は、人の正面を模した正面シルエットを表示する工程と、正面の画像を取得した後に、正面シルエットの大きさに正面の画像の大きさを合わせる工程と、人の側面を模した側面シルエットを表示する工程と、側面の画像を取得した後に、側面シルエットの大きさに側面の画像の大きさを合わせる工程と、を更に備えてもよい。この場合、画像の取得後にシルエットに画像の大きさが合わせられるので、身体の大きさに関するデータの精度を高めることができる。従って、身体の形状データをより高精度に取得することができる。 The above-described bedding proposal method includes the steps of displaying a front silhouette simulating the front of a person, adjusting the size of the front image to the size of the front silhouette after obtaining the front image, and adjusting the size of the front silhouette. The method may further include the steps of displaying a simulated side silhouette, and adjusting the size of the side image to the size of the side silhouette after acquiring the side image. In this case, since the size of the image is adjusted to the silhouette after the image is obtained, the accuracy of the data regarding the body size can be improved. Therefore, body shape data can be obtained with higher accuracy.

前述した寝具提案方法は、正面の画像を取得する前に、正面シルエットの位置に正面の位置を合わせる工程と、側面の画像を取得する前に、側面シルエットの位置に側面の位置を合わせる工程と、を更に備えてもよい。この場合、撮影前にシルエットに身体の大きさが合わせられる。よって、身体の大きさがシルエットに合わせられた状態で撮影が行われるので、身体の形状データを更に高精度に取得することができる。 The above-described bedding proposal method includes the step of aligning the front position with the position of the front silhouette before acquiring the front image, and the step of aligning the side position with the position of the side silhouette before acquiring the side image. , may be further provided. In this case, the size of the body is adjusted to the silhouette before shooting. Therefore, since the photographing is performed in a state in which the size of the body is adjusted to the silhouette, the shape data of the body can be acquired with higher accuracy.

本開示によれば、十分且つ高精度に寝具を提案することができる。 According to the present disclosure, bedding can be proposed sufficiently and with high accuracy.

実施形態に係る寝具提案システムを示すブロック図である。1 is a block diagram showing a bedding proposal system according to an embodiment; FIG. 正面の画像の撮影画面の例を示す図である。It is a figure which shows the example of the imaging|photography screen of the image of a front. 正面の画像のサイズ調整画面の例を示す図である。FIG. 10 is a diagram showing an example of a size adjustment screen for a front image; 正面の画像に対するマーキングの例を示す図である。FIG. 10 is a diagram showing an example of marking on a front image; 側面の画像の撮影画面の例を示す図である。FIG. 10 is a diagram showing an example of a photographing screen of a side image; 側面の画像のサイズ調整画面の例を示す図である。FIG. 11 is a diagram showing an example of a size adjustment screen for a side image; 側面の画像に対するマーキングの例を示す図である。FIG. 10 is a diagram showing an example of marking for a side image; 抽出されるコメントの例を示す図である。It is a figure which shows the example of the comment extracted. 寝具の高さ及びコメントが表示される画面の例を示す図である。It is a figure which shows the example of the screen on which the height of bedding and a comment are displayed. 実施形態に係る寝具提案方法の工程の例を示すフローチャートである。4 is a flow chart illustrating example steps of a bedding proposal method according to an embodiment. 寝具の素材及びお手入れ方法を説明する画面の例を示す図である。FIG. 10 is a diagram showing an example of a screen for explaining bedding materials and care methods;

以下では、図面を参照しながら本開示に係る寝具提案システム及び寝具提案方法の実施形態について説明する。図面の説明において、同一又は相当する要素には同一の符号を付し、重複する説明を適宜省略する。また、図面は、理解の容易化のため、一部を簡略化又は誇張して描いている場合があり、寸法比率等は図面に記載のものに限定されない。 Hereinafter, embodiments of a bedding proposal system and a bedding proposal method according to the present disclosure will be described with reference to the drawings. In the description of the drawings, the same or corresponding elements are denoted by the same reference numerals, and duplicate descriptions are omitted as appropriate. In addition, the drawings may be partially simplified or exaggerated for easy understanding, and the dimensional ratios and the like are not limited to those described in the drawings.

本開示に係る寝具提案システム及び寝具提案方法では、寝具提案システムの使用者に寝具を提案する。本開示において、「寝具」とは、身体を休めるときに身体に当てられるものを示している。「寝具」としては、例えば、枕、クッション、マットレス若しくは敷き布団等の敷き寝具、ベッドパッド、又は座布団が挙げられる。以下の実施形態の説明では、寝具が枕である例について説明する。 In the bedding proposal system and bedding proposal method according to the present disclosure, bedding is proposed to the user of the bedding proposal system. In the present disclosure, "bedding" refers to something that is applied to the body when resting. "Bedding" includes, for example, pillows, cushions, bedding such as mattresses or futons, bed pads, and floor cushions. In the description of the embodiments below, an example in which the bedding is a pillow will be described.

「使用者」は、寝具提案システムを使用する者を示している。「使用者」としては、例えば、寝具に興味があってどのような寝具が自分に合っているかを知りたいと考える者が挙げられる。本開示に係る寝具提案システムでは、使用者の正面の画像と側面の画像とが取得される。「使用者の正面の画像」とは、使用者の前方から使用者が撮影されたときにおける使用者の画像を示している。「使用者の側面の画像」とは、使用者の側方(左方向又は右方向)から使用者が撮影されたときにおける使用者の画像を示している。 "User" indicates a person who uses the bedding suggestion system. Examples of "users" include those who are interested in bedding and want to know what kind of bedding suits them. In the bedding proposal system according to the present disclosure, a front image and a side image of the user are acquired. "User's front image" indicates an image of the user when the user is photographed from the front of the user. A “side image of the user” indicates an image of the user when the user is photographed from the side (left direction or right direction) of the user.

本開示に係る寝具提案システムでは、側面の画像から使用者の首の形状データを算出する。「首の形状データ」とは、首の形のデータを示しており、例えば、首の凹み具合を数値化したデータを示している。本開示に係る寝具提案システムでは、正面の画像から使用者の肩の形状データを算出する。「肩の形状データ」とは、肩の形のデータを示しており、例えば、首に対する肩の突出具合を数値化したデータを示している。 In the bedding proposal system according to the present disclosure, shape data of the user's neck is calculated from the side image. "Neck shape data" indicates data on the shape of the neck, and indicates, for example, data obtained by digitizing the degree of depression of the neck. The bedding proposal system according to the present disclosure calculates shoulder shape data of the user from the front image. "Shoulder shape data" indicates shoulder shape data, for example, data obtained by digitizing the degree of protrusion of the shoulder relative to the neck.

本開示に係る寝具提案システムでは、首の形状データから寝具の高さを判定する。「寝具の高さを判定」とは、撮影された使用者の首の形状に相応しい寝具の高さを導出することを示している。本開示に係る寝具提案システムでは、首の形状データ、及び肩の形状データからコメントを抽出する。「コメント」とは、首の形状データ、及び肩の形状データから得られる寝具に関するアドバイスを示している。 The bedding proposal system according to the present disclosure determines the height of the bedding from the neck shape data. "Determining the height of the bedding" means deriving the height of the bedding suitable for the shape of the user's neck that has been photographed. The bedding proposal system according to the present disclosure extracts comments from neck shape data and shoulder shape data. "Comment" indicates advice on bedding obtained from neck shape data and shoulder shape data.

図1は、実施形態に係る寝具提案システム1を示すブロック図である。寝具提案システム1は、例えば、情報端末2にインストールされ、使用者が操作可能なアプリケーション(以下、「アプリ」という)を有する。当該アプリの種類は、特に限定されず、例えば、サーバからダウンロードされるダウンロードアプリ、SNS(ソーシャルネットワークサービス)のアプリ、通信用アプリ、動画再生アプリ、又はカメラ機能アプリとしての機能が含まれていてもよい。 FIG. 1 is a block diagram showing a bedding proposal system 1 according to an embodiment. The bedding proposal system 1 has, for example, an application (hereinafter referred to as “app”) that is installed in the information terminal 2 and that can be operated by the user. The type of the application is not particularly limited, and includes, for example, a download application downloaded from a server, an SNS (social network service) application, a communication application, a video playback application, or a function as a camera function application. good too.

情報端末2は、オペレーティングシステム及びソフトウェア(アプリケーション)等を実行するプロセッサ(例えばCPU)と、記憶部と、通信制御部と、ボタン等の入力装置と、ディスプレイ等の出力装置とを備える。寝具提案システム1の各機能要素は、情報端末2のプロセッサ又は記憶部に寝具提案システム1のアプリケーションを読み込ませて当該アプリケーションを実行することによって実現される。 The information terminal 2 includes a processor (for example, a CPU) that executes an operating system, software (applications), etc., a storage unit, a communication control unit, an input device such as buttons, and an output device such as a display. Each functional element of the bedding proposal system 1 is implemented by loading an application of the bedding proposal system 1 into the processor or storage unit of the information terminal 2 and executing the application.

寝具提案システム1の各機能要素は、情報端末2にダウンロードされたアプリケーションによって実行されてもよい。あるいは、寝具提案システム1は複数のコンピュータによって構成される分散処理システムであってもよいし、クライアント-サーバシステム、又はクラウドシステムであってもよい。例えば、情報端末2のプロセッサは、当該アプリケーションに従って、前述した通信制御部又は出力装置を動作させ、記憶部に対するデータの読み出し及び書き出しを行う。寝具提案システム1の処理に用いられるデータ又はデータベースは情報端末2の記憶部に格納される。 Each functional element of the bedding proposal system 1 may be executed by an application downloaded to the information terminal 2 . Alternatively, the bedding proposal system 1 may be a distributed processing system composed of multiple computers, a client-server system, or a cloud system. For example, the processor of the information terminal 2 operates the above-described communication control unit or output device according to the application, and reads data from and writes data to the storage unit. The data or database used for the processing of the bedding proposal system 1 is stored in the storage section of the information terminal 2 .

情報端末2は、例えば、寝具提案システム1の機能を実行可能な機器である。情報端末2は、例えば、携帯端末である。「携帯端末」は、例えば、スマートフォンを含む携帯電話、タブレット、カメラ又はノートパソコン等、携帯可能な端末を示している。情報端末2は、携帯端末以外の端末であってもよく、例えば、パソコンであってもよい。 The information terminal 2 is, for example, a device capable of executing the functions of the bedding proposal system 1 . The information terminal 2 is, for example, a mobile terminal. A “portable terminal” indicates a portable terminal such as a mobile phone including a smart phone, a tablet, a camera, or a notebook computer. The information terminal 2 may be a terminal other than a mobile terminal, and may be a personal computer, for example.

例えば、寝具提案システム1は、機能的構成要素として、正面シルエット表示部11と、正面画像取得部12と、側面シルエット表示部13と、側面画像取得部14と、マーク表示部15と、身体位置取得部16と、身体データ算出部17と、判定部18と、コメント抽出部19と、表示部20とを含む。 For example, the bedding proposal system 1 includes, as functional components, a front silhouette display unit 11, a front image acquisition unit 12, a side silhouette display unit 13, a side image acquisition unit 14, a mark display unit 15, a body position It includes an acquisition unit 16 , a physical data calculation unit 17 , a determination unit 18 , a comment extraction unit 19 and a display unit 20 .

図1及び図2に示されるように、表示部20は、情報端末2のディスプレイ2bに寝具提案システム1の使用者の正面撮影機能を実行するための操作画面21を表示する。操作画面21は、例えば、操作内容21bと、進行状況バー21cと、シャッターボタン21dと、切り替えボタン21fと、メッセージ21gとを表示する。 As shown in FIGS. 1 and 2 , the display unit 20 displays an operation screen 21 for executing a front-view photographing function of the bedding proposal system 1 on the display 2 b of the information terminal 2 . The operation screen 21 displays, for example, an operation content 21b, a progress bar 21c, a shutter button 21d, a switching button 21f, and a message 21g.

操作内容21bには、例えば、寝具提案システム1が正面撮影機能を実行することが表示される。進行状況バー21cは、寝具提案システム1が実行する一連の工程の進捗状況を表示する。シャッターボタン21dが押されると撮影が実行され、例えば、切り替えボタン21fが押されると情報端末2におけるフロントカメラ及びリアカメラの切り替えが実行される。メッセージ21gには、例えば、寝具提案システム1が実行しようとする正面撮影機能の処理の段階(図2の例では「step1」)、及び当該処理の内容が表示される。 For example, the operation content 21b indicates that the bedding proposal system 1 executes the front photographing function. The progress bar 21c displays the progress of a series of steps executed by the bedding proposal system 1. FIG. When the shutter button 21d is pressed, shooting is performed. For example, when the switching button 21f is pressed, switching between the front camera and the rear camera in the information terminal 2 is performed. The message 21g displays, for example, the stage of processing of the front photographing function to be executed by the bedding proposal system 1 (“step 1” in the example of FIG. 2) and the content of the processing.

正面シルエット表示部11は、ディスプレイ2bに身体の正面シルエットE1を表示する。本開示において、「シルエット」は、物の輪郭を示している。「シルエット」は、例えば、撮影された画像の大きさを所定の大きさに調整するように使用者を促すための輪郭を示している。撮影された画像の大きさがシルエットの大きさとなるように調整されることにより、当該画像の処理をより高精度に行うことが可能である。「正面シルエット」は、人の正面を模したシルエットを示している。後述する「側面シルエット」は、人の側面を模したシルエットを示している。 The front silhouette display unit 11 displays a front silhouette E1 of the body on the display 2b. In this disclosure, "silhouette" indicates the outline of an object. "Silhouette" indicates, for example, an outline for prompting the user to adjust the size of the photographed image to a predetermined size. By adjusting the size of the captured image to match the size of the silhouette, it is possible to process the image with higher accuracy. "Front silhouette" indicates a silhouette imitating the front of a person. A "side silhouette" to be described later indicates a silhouette imitating the side of a person.

例えば、正面シルエット表示部11は、ディスプレイ2bに表示する枠S11の内部に正面シルエットE1を表示する。枠S11は、例えば、矩形状を呈する。一例として、枠S11及び正面シルエットE1は、メッセージ21gとシャッターボタン21dとの間に表示される。 For example, the front silhouette display unit 11 displays the front silhouette E1 inside the frame S11 displayed on the display 2b. The frame S11 has, for example, a rectangular shape. As an example, the frame S11 and the front silhouette E1 are displayed between the message 21g and the shutter button 21d.

図3は、情報端末2のカメラ機能によって撮影された画面を模式的に示す図である。図1及び図3に示されるように、正面画像取得部12は、撮影された使用者の正面の画像M1を取得する前に画像M1の調整を使用者に促す機能を有する。例えば、正面画像取得部12は、正面画像調整部12bをディスプレイ2bに表示する。 FIG. 3 is a diagram schematically showing a screen imaged by the camera function of the information terminal 2. As shown in FIG. As shown in FIGS. 1 and 3, the front image acquiring unit 12 has a function of prompting the user to adjust the image M1 before acquiring the front image M1 of the user. For example, the front image acquisition unit 12 displays the front image adjustment unit 12b on the display 2b.

正面画像調整部12bには正面シルエットE1、及び撮影された画像M1が表示され、正面画像調整部12bでは正面シルエットE1に対する画像M1の大きさが調整可能とされている。例えば、使用者が正面画像調整部12bに2本の指を当てて画像M1をピンチイン及びピンチアウトすることにより、画像M1が縮小及び拡大される。画像M1は、画像M1の大きさが正面シルエットE1の大きさに合うようにピンチイン及びピンチアウトされる。 The front silhouette E1 and the photographed image M1 are displayed on the front image adjusting section 12b, and the front image adjusting section 12b can adjust the size of the image M1 with respect to the front silhouette E1. For example, when the user puts two fingers on the front image adjustment unit 12b and pinches the image M1 in and out, the image M1 is reduced and enlarged. The image M1 is pinched in and out so that the size of the image M1 matches the size of the front silhouette E1.

正面画像取得部12は、例えば、正面画像調整部12bと共に、メッセージ12cと、OKボタン12dとを表示する。一例として、正面画像調整部12b、メッセージ12c及びOKボタン12dは、この順で並んでいる。メッセージ12cは、正面シルエットE1の大きさに画像M1の大きさを合わせるように使用者に促すメッセージである。OKボタン12dは、大きさが調整された画像M1を確定させるためのボタンである。 For example, the front image acquisition unit 12 displays a message 12c and an OK button 12d together with the front image adjustment unit 12b. As an example, the front image adjustment section 12b, the message 12c and the OK button 12d are arranged in this order. The message 12c is a message prompting the user to adjust the size of the image M1 to the size of the front silhouette E1. The OK button 12d is a button for confirming the size-adjusted image M1.

本実施形態に係る寝具提案システム1は、マーク表示部15が表示するマークにより、画像M1における身体の各部の位置を使用者に決めさせる機能を有する。図4は、当該機能を説明するための模式図である。マーク表示部15は、例えば、正面シルエットE1に対する大きさが調整された画像M1と共にマークK1,K2をディスプレイ2bに表示する。図4及び後述する図7では、マーク(マークK1~K5)の形状が矢印の形状である例を示している。しかしながら、マークの形状は、矢印の形状以外の形状であってもよく、特に限定されない。 The bedding proposal system 1 according to the present embodiment has a function of allowing the user to determine the positions of each part of the body in the image M1 using the marks displayed by the mark display unit 15 . FIG. 4 is a schematic diagram for explaining the function. For example, the mark display unit 15 displays the marks K1 and K2 on the display 2b together with the image M1 whose size is adjusted with respect to the front silhouette E1. FIG. 4 and FIG. 7, which will be described later, show an example in which the marks (marks K1 to K5) are shaped like arrows. However, the shape of the mark may be any shape other than the arrow shape, and is not particularly limited.

正面画像取得部12は、正面シルエットE1に合うように大きさが調整された画像M1をディスプレイ2bに表示する。マーク表示部15は、例えば、使用者の首の位置を示すマークK1、及び使用者の肩の位置を示すマークK2を画像M1と共に表示する。 The front image acquisition unit 12 displays on the display 2b the image M1 whose size has been adjusted to match the front silhouette E1. The mark display unit 15 displays, for example, a mark K1 indicating the position of the user's neck and a mark K2 indicating the position of the user's shoulder together with the image M1.

マークK1及びマークK2は、ディスプレイ2bにおいて指で移動可能とされている。指でマークK1の位置が使用者の首M3の位置に合わせられ、且つ指でマークK2の位置が使用者の肩M4の位置に合わせられることにより、画像M1上における使用者の首M3及び肩M4の位置が確定する。 The mark K1 and the mark K2 can be moved with a finger on the display 2b. By aligning the position of the mark K1 with the position of the user's neck M3 with the finger and aligning the position of the mark K2 with the position of the user's shoulder M4 with the finger, the user's neck M3 and shoulders on the image M1 are displayed. The position of M4 is established.

正面画像取得部12は、例えば、マークK1,K2が表示された画像M1と共に、メッセージ12fと、OKボタン12gとをディスプレイ2bに表示する。メッセージ12fは、画像M1上の使用者の首M3の位置(例えば首M3のくびれている部分)にマークK1を合わせると共に、画像M1上の使用者の肩M4の位置(例えば最も突出している肩M4の部分)にマークK2を合わせるように使用者に促すメッセージである。OKボタン12gは、マークK1,K2の位置が調整された画像M1を確定させるためのボタンである。 The front image acquiring unit 12 displays, for example, an image M1 on which the marks K1 and K2 are displayed, a message 12f, and an OK button 12g on the display 2b. The message 12f aligns the mark K1 with the position of the user's neck M3 on the image M1 (for example, the constricted portion of the neck M3), and also aligns the position of the user's shoulder M4 on the image M1 (for example, the most protruding shoulder). This message urges the user to align the mark K2 with M4). The OK button 12g is a button for confirming the image M1 in which the positions of the marks K1 and K2 have been adjusted.

図5は、使用者の身体の側面を撮影する手順を説明するための図である。図1及び図5に示されるように、表示部20は、ディスプレイ2bに寝具提案システム1による使用者の側面撮影機能を実行するための操作画面22を表示する。操作画面22は、例えば操作画面21と同様、操作内容22bと、進行状況バー22cと、シャッターボタン21dと、切り替えボタン21fと、メッセージ22gとを表示する。 FIG. 5 is a diagram for explaining the procedure for photographing the side of the user's body. As shown in FIGS. 1 and 5, the display unit 20 displays an operation screen 22 for executing a user's side photographing function by the bedding proposal system 1 on the display 2b. Like the operation screen 21, the operation screen 22 displays an operation content 22b, a progress bar 22c, a shutter button 21d, a switching button 21f, and a message 22g.

操作内容22bには、例えば、寝具提案システム1が側面撮影機能を実行することが表示される。進行状況バー22cは、寝具提案システム1が実行する一連の工程の進捗状況が、進行状況バー21cが表示されたときよりも進んでいることを表示する。メッセージ22gには、例えば、寝具提案システム1が実行しようとする側面撮影機能の処理の段階(図5の例では「step2」)、及び当該処理の内容が表示される。 For example, the operation content 22b indicates that the bedding proposal system 1 executes the side photographing function. The progress bar 22c indicates that the progress of a series of steps executed by the bedding proposal system 1 has progressed since the progress bar 21c was displayed. The message 22g displays, for example, the stage of processing of the side photographing function to be executed by the bedding proposal system 1 (“step 2” in the example of FIG. 5) and the content of the processing.

側面シルエット表示部13は、ディスプレイ2bに身体の側面シルエットE2を表示する。例えば、側面シルエット表示部13は、ディスプレイ2bに表示する枠S21の内部に側面シルエットE2を表示する。枠S21の形状及び配置態様は、例えば、前述した枠S11の形状及び配置態様と同様である。 The side silhouette display unit 13 displays a side silhouette E2 of the body on the display 2b. For example, the side silhouette display unit 13 displays the side silhouette E2 inside the frame S21 displayed on the display 2b. The shape and arrangement of the frame S21 are, for example, the same as the shape and arrangement of the frame S11 described above.

側面シルエットE2には使用者の側面画像が合わせられる。しかしながら、正面シルエットE1に使用者の正面画像を合わせる場合と比較して、側面シルエットE2に使用者の側面画像を合わせるのは難しい。従って、正面シルエットE1に使用者の正面画像が合わされてシャッターボタン21dが押されたときには、その直後に正面の画像M1が取得されるのに対し、側面シルエットE2に使用者の側面画像が合わされてシャッターボタン21dが押されてもX秒間(Xは自然数)側面の画像を取得しない。 A side image of the user is matched with the side silhouette E2. However, it is more difficult to fit the side image of the user to the side silhouette E2 than to fit the front image of the user to the front silhouette E1. Therefore, when the front image of the user is combined with the front silhouette E1 and the shutter button 21d is pressed, the front image M1 is acquired immediately after that, whereas the side image of the user is combined with the side silhouette E2. Even if the shutter button 21d is pressed, the side image is not acquired for X seconds (X is a natural number).

すなわち、側面シルエットE2に使用者の側面画像が合わされてX秒経過した後に側面の画像が取得される。一例として、Xの値は3である。このようにシャッターボタン21dが押されて一定時間経過後に側面画像が撮影されることにより、側面シルエットE2に対する側面画像の合わせ込みをより高精度に行うことが可能である。 That is, after X seconds have passed since the side image of the user is combined with the side silhouette E2, the side image is acquired. As an example, the value of X is three. In this way, the side image is captured after the shutter button 21d is pressed and a certain period of time has elapsed, so that the side image can be aligned with the side silhouette E2 with higher accuracy.

メッセージ22gには、例えば、シャッターボタン21dが押されてX秒経過した後に撮影されることが表示される。なお、メッセージ22gには、カメラが使用者の頭部に水平方向に沿って並ぶようにカメラを位置合わせした上で撮影を行う注意書きが表示されてもよい。この場合、取得される使用者の側面の画像の精度をより高めることができる。 The message 22g indicates, for example, that the shutter button 21d will be pressed and the image will be captured after X seconds have elapsed. Note that the message 22g may include a warning that the camera should be aligned horizontally with the user's head before shooting. In this case, the accuracy of the captured side image of the user can be further improved.

図6は、撮影された使用者の側面の画像M2を示す図である。図1及び図6に示されるように、側面画像取得部14は、撮影された使用者の側面の画像M2を取得する前に画像M2の調整を使用者に促す機能を有する。例えば、側面画像取得部14は、側面画像調整部14bをディスプレイ2bに表示する。 FIG. 6 is a diagram showing a photographed image M2 of the side of the user. As shown in FIGS. 1 and 6, the side image acquiring unit 14 has a function of prompting the user to adjust the image M2 before acquiring the side image M2 of the user. For example, the side image acquisition unit 14 displays the side image adjustment unit 14b on the display 2b.

側面画像調整部14bには側面シルエットE2、及び撮影された画像M2が表示され、側面画像調整部14bでは側面シルエットE2に対する画像M2の大きさが調整可能とされている。例えば、使用者は、正面画像調整部12bの場合と同様、画像M2をピンチイン及びピンチアウトすることにより、画像M2が縮小及び拡大される。画像M2は、画像M2の大きさが側面シルエットE2の大きさに合うようにピンチイン及びピンチアウトされる。 The side silhouette E2 and the photographed image M2 are displayed on the side image adjustment unit 14b, and the size of the image M2 with respect to the side silhouette E2 can be adjusted in the side image adjustment unit 14b. For example, the user can reduce and enlarge the image M2 by pinching in and out the image M2, as in the case of the front image adjustment unit 12b. The image M2 is pinched in and out so that the size of the image M2 matches the size of the side silhouette E2.

側面画像取得部14は、目位置確定部14c及び後頭部確定部14dの少なくともいずれかを側面シルエットE2上に表示してもよい。目位置確定部14cは画像M2上の使用者の目の位置を確定させるための部位であり、後頭部確定部14dは画像M2上の使用者の後頭部の位置(後頭部の頂部の位置)を確定させるための部位である。目位置確定部14c及び後頭部確定部14dの少なくともいずれかが設けられることにより、取得する画像M2における使用者の各部の位置の精度を一層高めることが可能である。 The side image acquisition section 14 may display at least one of the eye position determination section 14c and the back of the head determination section 14d on the side silhouette E2. The eye position determination part 14c is a part for determining the position of the user's eyes on the image M2, and the back of the head determination part 14d determines the position of the back of the user's head (position of the top of the back of the head) on the image M2. It is a part for By providing at least one of the eye position determining section 14c and the occipital area determining section 14d, it is possible to further improve the accuracy of the position of each part of the user in the acquired image M2.

側面画像取得部14は、更に、メッセージ14fと、OKボタン14gとを表示する。一例として、側面画像調整部14b、メッセージ14f及びOKボタン14gはこの順で並んでいる。メッセージ14fは、側面シルエットE2の大きさに画像M2の大きさを合わせるよう使用者に促すメッセージである。OKボタン14gは、大きさが調整された画像M2を確定させるためのボタンである。 The side image acquisition unit 14 further displays a message 14f and an OK button 14g. As an example, the side image adjuster 14b, the message 14f and the OK button 14g are arranged in this order. The message 14f is a message prompting the user to adjust the size of the image M2 to the size of the side silhouette E2. The OK button 14g is a button for confirming the size-adjusted image M2.

図7に示されるように、確定された画像M2に対しては、マーク表示部15がマークを表示し、当該マークによって画像M2における身体の各部の位置が使用者によって決定される。マーク表示部15は、例えば、側面シルエットE2に対する大きさが調整された画像M2と共にマークK3,K4,K5をディスプレイ2bに表示する。 As shown in FIG. 7, the mark display unit 15 displays a mark on the confirmed image M2, and the user determines the position of each part of the body in the image M2 based on the mark. For example, the mark display unit 15 displays the marks K3, K4, and K5 on the display 2b together with the image M2 whose size is adjusted with respect to the side silhouette E2.

側面画像取得部14は、側面シルエットE2に合うように大きさが調整された画像M2をディスプレイ2bに表示する。マーク表示部15は、例えば、使用者の後頭部の位置を示すマークK3、使用者の首の位置を示すマークK4、及び使用者の背中の位置を示すマークK5を画像M2と共に表示する。 The side image acquisition unit 14 displays on the display 2b the image M2 whose size has been adjusted to match the side silhouette E2. The mark display unit 15 displays, for example, a mark K3 indicating the position of the back of the user's head, a mark K4 indicating the position of the user's neck, and a mark K5 indicating the position of the user's back together with the image M2.

指でマークK3の位置が使用者の後頭部M6の位置に合わせられ、指でマークK4の位置が使用者の首M3の位置に合わせられ、且つ指でマークK5の位置が使用者の背中M5の位置に合わせられることにより、画像M2上における使用者の後頭部、首及び背中の位置が確定する。 The position of the mark K3 is aligned with the position of the user's back M6 with the finger, the position of the mark K4 is aligned with the position of the user's neck M3 with the finger, and the position of the mark K5 is aligned with the position of the user's back M5 with the finger. The alignment establishes the positions of the user's back of the head, neck and back on the image M2.

側面画像取得部14は、例えば、マークK3,K4,K5が表示された画像M2と共に、メッセージ14hと、OKボタン14jとをディスプレイ2bに表示する。メッセージ14hは、画像M2上の使用者の後頭部M6の位置(例えば後頭部M6の最も突出している部分)にマークK3を合わせ、画像M2上の使用者の首M3の位置(例えば最もくびれている首M3の部分)にマークK4を合わせると共に、画像M2上の使用者の背中M5の位置(例えば背中M5の最も突出している部分)にマークK5を合わせるように使用者に促すメッセージである。OKボタン14jは、マークK3,K4,K5の位置が調整された画像M2を確定させるためのボタンである。 The side image acquiring unit 14 displays, for example, an image M2 in which marks K3, K4, and K5 are displayed, a message 14h, and an OK button 14j on the display 2b. The message 14h aligns the mark K3 with the position of the back of the user's head M6 on the image M2 (for example, the most protruding part of the back of the head M6), and the position of the user's neck M3 on the image M2 (for example, the narrowest neck). The message prompts the user to align the mark K4 with the position of the user's back M5 (for example, the most protruding part of the back M5) on the image M2 as well as align the mark K4 with the position of the user's back M3. The OK button 14j is a button for confirming the image M2 in which the positions of the marks K3, K4, and K5 have been adjusted.

図1に示されるように、身体位置取得部16は、マークK1,K2の位置が調整された使用者の正面の画像M1、及びマークK3,K4,K5の位置が調整された使用者の側面の画像M2が取得された後に、画像M1及び画像M2から使用者の身体の位置を算出する。例えば、身体位置取得部16は、マークK1,K2の位置から使用者の正面における首M3及び肩M4の画像M1上の位置を取得すると共に、マークK3,K4,K5の位置から使用者の側面における後頭部M6、首M3及び背中M5の画像M2上の位置を取得する。 As shown in FIG. 1, the body position acquisition unit 16 obtains an image M1 of the front of the user in which the positions of the marks K1 and K2 have been adjusted, and an image M1 of the user's side in which the positions of the marks K3, K4, and K5 have been adjusted. After the image M2 is acquired, the position of the user's body is calculated from the image M1 and the image M2. For example, the body position acquisition unit 16 acquires the positions of the neck M3 and shoulders M4 in front of the user on the image M1 from the positions of the marks K1 and K2, and acquires the positions of the user's side faces from the positions of the marks K3, K4 and K5. , the positions of the back of the head M6, neck M3 and back M5 on the image M2 are obtained.

身体データ算出部17は、身体位置取得部16によって取得された正面における首及び肩の位置、並びに、側面における後頭部、首及び背中の位置から、使用者の肩の形状データD1、使用者の首の形状データD2、及び使用者の後頭部の形状データD3を算出する。 The body data calculation unit 17 obtains the shape data D1 of the shoulders of the user, the shape data D1 of the user's neck, and the positions of the neck and shoulders on the front and the positions of the back of the head, neck, and back on the sides obtained by the body position obtaining unit 16 . and the shape data D3 of the back of the user's head.

例えば、図4及び図7に示されるように、身体データ算出部17は、画像M1における使用者の首M3から肩M4までの水平方向への長さを肩の形状データD1として算出し、画像M2における使用者の背中M5から首M3までの水平方向への長さを首の形状データD2として算出する。例えば、身体データ算出部17は、使用者の背中M5から後頭部M6までの水平方向への長さを後頭部の形状データD3として算出する。 For example, as shown in FIGS. 4 and 7, the physical data calculation unit 17 calculates the horizontal length from the neck M3 to the shoulder M4 of the user in the image M1 as the shoulder shape data D1. The length in the horizontal direction from the user's back M5 to the neck M3 in M2 is calculated as neck shape data D2. For example, the body data calculator 17 calculates the horizontal length from the user's back M5 to the back of the head M6 as the shape data D3 of the back of the head.

肩の形状データD1、首の形状データD2、及び後頭部の形状データD3としては、上記の例以外の部分の長さを算出してもよい。以上のように、身体データ算出部17は、側面の画像M2から使用者の首の形状データD2を算出すると共に、正面の画像M1から使用者の肩の形状データD1を算出する。 As the shoulder shape data D1, the neck shape data D2, and the back of the head shape data D3, lengths of portions other than the above examples may be calculated. As described above, the body data calculator 17 calculates the neck shape data D2 of the user from the side image M2, and calculates the shoulder shape data D1 of the user from the front image M1.

判定部18は、首の形状データD2から寝具の高さを判定する。例えば、判定部18は、首の形状データD2が一定値以上であるときに高い枕が適していると判定し、首の形状データD2が一定値以上でないときに低い枕が適していると判定する。具体例として、判定部18は、首の形状データD2がA1(cm)以上であるときに高い枕が適していると判定し、首の形状データD2がA2(cm)以上且つA1(cm)未満であるときに中程度(ふつう)の枕が適していると判定し、首の形状データD2がA2(cm)未満であるときに低い枕が適していると判定する。A1は正の実数であり、A2はA1より小さい正の実数である。一例として、A1の値は8.0、A2の値は6.0である。しかしながら、A1の値、及びA2の値は上記の例に限定されない。 The determination unit 18 determines the height of the bedding from the neck shape data D2. For example, the determination unit 18 determines that a high pillow is suitable when the neck shape data D2 is equal to or greater than a certain value, and determines that a low pillow is suitable when the neck shape data D2 is not equal to or greater than a certain value. do. As a specific example, the determination unit 18 determines that a high pillow is suitable when the neck shape data D2 is A1 (cm) or more, and the neck shape data D2 is A2 (cm) or more and A1 (cm) When the neck shape data D2 is less than A2 (cm), it is determined that a low pillow is suitable. A1 is a positive real number and A2 is a positive real number smaller than A1. As an example, the value of A1 is 8.0 and the value of A2 is 6.0. However, the values of A1 and A2 are not limited to the above examples.

コメント抽出部19は、例えば、情報端末2の記憶部に予め記憶されるコメントからディスプレイ2bに表示するコメントを抽出する。図8は、予め記憶されるコメントの例を示すコメント表Cである。情報端末2には、例えば、図8に示されるコメント表Cが予め(例えば、寝具提案システム1のアプリケーションが情報端末2にダウンロードされた時点、又は寝具提案システム1のアプリケーションを起動した時点で)記憶される。 The comment extraction unit 19 extracts comments to be displayed on the display 2b from comments pre-stored in the storage unit of the information terminal 2, for example. FIG. 8 is a comment table C showing an example of pre-stored comments. The information terminal 2 has, for example, a comment table C shown in FIG. remembered.

コメント抽出部19は、肩の形状データD1、及び首の形状データD2に応じてコメントを抽出する。本実施形態において、コメント抽出部19は、肩の形状データD1、首の形状データD2、及び後頭部の形状データD3に応じてコメントを抽出する。例えば、判定部18は、肩の形状データD1、首の形状データD2及び後頭部の形状データD3を高中低の3段階で判定する。 The comment extraction unit 19 extracts comments according to the shoulder shape data D1 and the neck shape data D2. In the present embodiment, the comment extraction unit 19 extracts comments according to the shoulder shape data D1, the neck shape data D2, and the back of the head shape data D3. For example, the determination unit 18 determines the shape data D1 of the shoulder, the shape data D2 of the neck, and the shape data D3 of the back of the head in three stages of high, medium, and low.

例えば、判定部18は、肩の形状データD1が一定値以上であるときには肩が広いと判定し、肩の形状データD1が一定値以上でないときに肩が狭いと判定する。例えば、判定部18は、首の形状データD2が一定値以上であるときに首が高いと判定し、首の形状データD2が一定値以上でないときに首が低いと判定する。 For example, the determination unit 18 determines that the shoulders are wide when the shoulder shape data D1 is equal to or greater than a predetermined value, and determines that the shoulders are narrow when the shoulder shape data D1 is not equal to or greater than the predetermined value. For example, the determining unit 18 determines that the neck is high when the neck shape data D2 is greater than or equal to a certain value, and determines that the neck is low when the neck shape data D2 is not greater than or equal to the certain value.

例えば、判定部18は、後頭部の形状データD3が一定値以上であるときに後頭部が高いと判定し、後頭部の形状データD3が一定値以上でないときに後頭部が低いと判定する。「首(又は後頭部)が高い(又は低い)」とは、使用者が横たわったとされる敷き寝具からの首(又は後頭部)の高さが高い(又は低い)ことを示している。また、側面の画像M2における背中M5から水平方向への距離が長い場合が「(首又は後頭部の高さが)高い」と判定されてもよい。 For example, the determination unit 18 determines that the back of the head is high when the shape data D3 of the back of the head is equal to or greater than a certain value, and determines that the back of the head is low when the shape data D3 of the back of the head is not equal to or above the certain value. "The neck (or the back of the head) is high (or low)" means that the neck (or the back of the head) is high (or low) from the bedding on which the user is supposed to lie. Further, it may be determined that “(the height of the neck or the back of the head is high)” when the distance in the horizontal direction from the back M5 in the side image M2 is long.

一例として、判定部18は、肩の形状データD1がX1(cm)以上であるときに肩が広いと判定し、肩の形状データD1がX2(cm)以上且つX1(cm)未満であるときに肩が中程度と判定し、肩の形状データD1がX2(cm)未満であるときに肩が狭いと判定する。X1は正の実数であり、X2はX1より小さい正の実数である。一例として、X1の値は12.0であり、X2の値は9.3である。しかしながら、X1の値、及びX2の値は上記の例に限定されない。 As an example, the determination unit 18 determines that the shoulders are wide when the shoulder shape data D1 is X1 (cm) or more, and when the shoulder shape data D1 is X2 (cm) or more and less than X1 (cm). When the shoulder shape data D1 is less than X2 (cm), it is determined that the shoulder is narrow. X1 is a positive real number and X2 is a positive real number smaller than X1. As an example, the value of X1 is 12.0 and the value of X2 is 9.3. However, the values of X1 and X2 are not limited to the above examples.

一例として、判定部18は、首の形状データD2がY1(cm)以上であるときに首が高いと判定し、首の形状データD2がY2(cm)以上且つY1(cm)未満であるときに首が中程度と判定し、首の形状データD2がY2(cm)未満であるときに首が低いと判定する。Y1は正の実数であり、Y2はY1より小さい正の実数である。一例として、Y1の値は8.0であり、Y2の値は6.0である。しかしながら、Y1の値、及びY2の値は上記の例に限定されない。 As an example, the determination unit 18 determines that the neck is high when the neck shape data D2 is Y1 (cm) or more, and when the neck shape data D2 is Y2 (cm) or more and less than Y1 (cm). When the neck shape data D2 is less than Y2 (cm), it is determined that the neck is low. Y1 is a positive real number and Y2 is a positive real number smaller than Y1. As an example, the value of Y1 is 8.0 and the value of Y2 is 6.0. However, the values of Y1 and Y2 are not limited to the above examples.

一例として、判定部18は、後頭部の形状データD3がZ1(cm)以上であるときに後頭部が高いと判定し、後頭部の形状データD3がZ2(cm)以上且つZ1(cm)未満であるときに後頭部が中程度と判定し、後頭部の形状データD3がZ2(cm)未満であるときに後頭部が低いと判定する。Z1は正の実数であり、Z2はZ1より小さい正の実数である。一例として、Z1の値は5.0であり、Z2の値は3.0である。しかしながら、Z1の値、及びZ2の値は上記の例に限定されない。 As an example, the determining unit 18 determines that the occipital region is high when the occipital region shape data D3 is Z1 (cm) or more, and when the occipital region shape data D3 is Z2 (cm) or more and less than Z1 (cm). When the shape data D3 of the occipital region is less than Z2 (cm), it is determined that the occipital region is low. Z1 is a positive real number and Z2 is a positive real number smaller than Z1. As an example, the value of Z1 is 5.0 and the value of Z2 is 3.0. However, the values of Z1 and Z2 are not limited to the above examples.

以上のように、判定部18によって首の高さ、後頭部の高さ、及び肩の広さが判定され、コメント抽出部19は判定された首の高さ、後頭部の高さ、及び肩の広さに応じたコメントを抽出する。例えば、判定部18によって首が中程度、後頭部が低い、及び肩が狭いと判定された場合には、コメント抽出部19は「後頭部と両サイドを低くすると合いやすいです。」というコメントを抽出する。また、判定部18によって首が高い、後頭部が低い、及び肩が中程度と判定された場合には、コメント抽出部19は「後頭部を低くすると合いやすいです。横向き寝が多い場合はふつうの高さが合いやすいです。」というコメントを抽出する。 As described above, the determination unit 18 determines the height of the neck, the height of the back of the head, and the width of the shoulders, and the comment extraction unit 19 determines the height of the neck, the height of the back of the head, and the width of the shoulders. extract comments according to the For example, when the judgment unit 18 judges that the neck is medium, the back of the head is low, and the shoulders are narrow, the comment extraction unit 19 extracts a comment that "it is easier to fit if the back of the head and both sides are lowered." . Further, when the determination unit 18 determines that the neck is high, the back of the head is low, and the shoulders are moderate, the comment extraction unit 19 says, “It is easier to fit if the back of the head is lowered. It's easy to match." is extracted.

図1及び図9に示されるように、表示部20は、判定部18によって判定された枕の高さ、及びコメント抽出部19によって抽出されたコメントを表示する。図9は、表示部20が表示する画面の一例を示している。表示部20は、例えば、使用者に適した枕の高さを表示する高さ表示画面23、及び枕に関するコメントを表示するコメント表示画面24を情報端末2のディスプレイ2bに表示する。 As shown in FIGS. 1 and 9 , the display unit 20 displays the height of the pillow determined by the determination unit 18 and the comments extracted by the comment extraction unit 19 . FIG. 9 shows an example of a screen displayed by the display unit 20. As shown in FIG. The display unit 20 displays on the display 2b of the information terminal 2, for example, a height display screen 23 that displays the height of the pillow suitable for the user and a comment display screen 24 that displays comments regarding the pillow.

一例として、高さ表示画面23は、判定部18によって判定された高さ(首の高さ、枕の高さ)をテキスト表示するテキスト表示部23bと、判定部18によって判定された高さをアイコン表示するアイコン表示部23cと、判定部18によって判定された高さをメーター表示するメーター表示部23dとを有する。このように高さ表示画面23がテキスト表示部23b、アイコン表示部23c及びメーター表示部23dを有することにより、使用者は自分に適した枕の高さを直ちに把握できる。 As an example, the height display screen 23 includes a text display portion 23b for text-displaying the height (neck height, pillow height) determined by the determination portion 18, and a text display portion 23b for displaying the height determined by the determination portion 18. It has an icon display portion 23c that displays an icon and a meter display portion 23d that displays the height determined by the determination portion 18 with a meter. Since the height display screen 23 has the text display portion 23b, the icon display portion 23c, and the meter display portion 23d, the user can immediately grasp the height of the pillow suitable for him/herself.

コメント表示画面24は、コメント抽出部19によって抽出されたコメントを表示するコメント表示部24bを有する。表示部20は、コメント抽出部19がコメント表Cから抽出したコメントをテキスト形式でコメント表示部24bに表示する。例えば、首が低い、後頭部が低い、及び肩が中程度と判定され、「横向き寝が多い場合はふつうの高さが合いやすいです。」というコメントが抽出された場合には、表示部20は抽出された当該コメントをコメント表示部24bに表示する。 The comment display screen 24 has a comment display section 24b that displays the comments extracted by the comment extraction section 19. FIG. The display unit 20 displays the comments extracted from the comment table C by the comment extraction unit 19 in a text format on the comment display unit 24b. For example, when it is determined that the neck is low, the back of the head is low, and the shoulders are moderate, and the comment "If you sleep on your side a lot, normal height is likely to suit you." The extracted comment is displayed on the comment display section 24b.

表示部20は、例えば、再計測確認ボタン25を表示する。再計測確認ボタン25が押されると、表示部20は、例えば、図2に示される初期画面を再度表示する。一例として、ディスプレイ2bにおいて、テキスト表示部23b、アイコン表示部23c、メーター表示部23d、コメント表示部24b及び再計測確認ボタン25は、この順で上から下に向かって並ぶように表示される。しかしながら、表示部20によって表示される枕の高さ及びコメントの表示態様は、上記の例に限られず適宜変更可能である。 The display unit 20 displays, for example, a re-measurement confirmation button 25 . When the re-measurement confirmation button 25 is pressed, the display unit 20 displays, for example, the initial screen shown in FIG. 2 again. As an example, on the display 2b, the text display section 23b, the icon display section 23c, the meter display section 23d, the comment display section 24b, and the re-measurement confirmation button 25 are displayed in this order from top to bottom. However, the display mode of the height of the pillow and the comment displayed by the display unit 20 is not limited to the above example and can be changed as appropriate.

次に、本実施形態に係る寝具提案方法について図10を参照しながら説明する。図10は、本実施形態に係る寝具提案方法の工程の例を示すフローチャートである。例えば、情報端末2に寝具提案システム1のアプリケーションが起動されることによって、寝具提案方法の一連の工程が開始する。 Next, a bedding proposal method according to this embodiment will be described with reference to FIG. FIG. 10 is a flow chart showing an example of the steps of the bedding proposal method according to this embodiment. For example, when the application of the bedding proposal system 1 is activated on the information terminal 2, a series of steps of the bedding proposal method are started.

寝具提案システム1のアプリケーションが起動すると、例えば、表示部20が利用規約ボタン及びスタートボタンをディスプレイ2bに表示する。ディスプレイ2bのスタートボタンが押されると、寝具提案システム1のアプリケーションの使用方法を説明する画面と次へボタンを表示部20がディスプレイ2bに表示する。寝具提案システム1のアプリケーションの使用方法としては、例えば、正面及び側面の撮影の方法及び注意事項(例えば撮影時には髪を縛って首を露出した方がよいこと等)が含まれる。 When the application of the bedding proposal system 1 is activated, for example, the display unit 20 displays a terms of use button and a start button on the display 2b. When the start button of the display 2b is pressed, the display unit 20 displays a screen explaining how to use the application of the bedding proposal system 1 and a next button on the display 2b. The usage of the application of the bedding proposal system 1 includes, for example, the method of photographing the front and side and precautions (for example, it is better to tie the hair and expose the neck when photographing).

上記の次へボタンが押されると、表示部20は、図2に示されるように、使用者の正面撮影機能を実行するための操作画面21をディスプレイ2bに表示する。このとき、正面シルエット表示部11が正面シルエットE1をディスプレイ2bに表示する(正面シルエットを表示する工程、ステップS1)。 When the next button is pressed, the display unit 20 displays an operation screen 21 for executing the user's front photographing function on the display 2b, as shown in FIG. At this time, the front silhouette display unit 11 displays the front silhouette E1 on the display 2b (step of displaying the front silhouette, step S1).

使用者は、表示された正面シルエットE1に合うようにディスプレイ2bにうつし出された使用者の正面の位置を調整する。このとき、使用者の正面に対する情報端末2の距離及び方向を調整することによって使用者の正面の位置が調整される。このように、実際に使用者の正面画像を撮影する前に、正面シルエットE1の位置に使用者の正面の位置を合わせる調整を行う(正面の位置を合わせる工程、ステップS2)。 The user adjusts the front position of the user projected on the display 2b so as to match the displayed front silhouette E1. At this time, the position in front of the user is adjusted by adjusting the distance and direction of the information terminal 2 with respect to the front of the user. In this way, before actually photographing the front image of the user, adjustment is performed to align the front of the user with the position of the front silhouette E1 (step of aligning the front, step S2).

ディスプレイ2bにおいて正面シルエットE1の位置に使用者の正面の位置が合わせられた状態でシャッターボタン21dが押されることにより、使用者の正面の画像M1を撮影する(正面の画像を撮影する工程、ステップS3)。図3に示されるように、ディスプレイ2bには撮影された正面の画像M1が正面シルエットE1と共に表示される。 By pressing the shutter button 21d with the user's front position aligned with the position of the front silhouette E1 on the display 2b, an image M1 of the front of the user is photographed (the process of photographing the front image, step S3). As shown in FIG. 3, the display 2b displays a photographed front image M1 together with a front silhouette E1.

このとき、正面シルエットE1に対する正面の画像M1の拡大及び縮小が行われる(画像の大きさを調整する工程、ステップS4)。具体例として、ディスプレイ2bに2本の指が当てられてピンチイン及びピンチアウトがなされることによって正面シルエットE1の大きさに正面の画像M1の大きさが合わせられる。 At this time, the front image M1 is enlarged and reduced with respect to the front silhouette E1 (the step of adjusting the size of the image, step S4). As a specific example, by putting two fingers on the display 2b and pinching in and out, the size of the front image M1 is adjusted to the size of the front silhouette E1.

そして、OKボタン12dが押されると、図4に示されるように、正面画像取得部12は、正面の画像M1における身体の各部の位置を確定させるための画面を表示する。このとき、正面画像取得部12は、画像M1と共にマークK1,K2をディスプレイ2bに表示する。 Then, when the OK button 12d is pressed, as shown in FIG. 4, the front image acquiring unit 12 displays a screen for confirming the positions of the parts of the body in the front image M1. At this time, the front image acquisition unit 12 displays the marks K1 and K2 together with the image M1 on the display 2b.

例えば、使用者は、ディスプレイ2b上において、マークK1の矢印の先端を首のくびれた部分に合わせて、マークK2の先端を肩の最も出っ張った部分に合わせる(マークの位置を調整する工程、ステップS5)。その後、OKボタン12gが押されると、例えば、正面画像取得部12は正面の画像M1を取得及び決定する(正面の画像を取得する工程、ステップS6)。 For example, on the display 2b, the user aligns the tip of the arrow of the mark K1 with the narrow part of the neck and aligns the tip of the mark K2 with the protruding part of the shoulder (adjusting the position of the mark, step S5). After that, when the OK button 12g is pressed, for example, the front image acquiring unit 12 acquires and determines the front image M1 (the step of acquiring the front image, step S6).

OKボタン12gが押されると、図5に示されるように、使用者の側面を撮影するための操作画面22を表示部20がディスプレイ2bに表示する。このとき、側面シルエット表示部13が側面シルエットE2をディスプレイ2bに表示する(側面シルエットを表示する工程、ステップS7)。 When the OK button 12g is pressed, the display unit 20 displays an operation screen 22 for photographing the side of the user on the display 2b, as shown in FIG. At this time, the side silhouette display unit 13 displays the side silhouette E2 on the display 2b (step of displaying the side silhouette, step S7).

使用者は、側面シルエットE2に合うようにディスプレイ2bにうつし出された使用者の側面の位置を調整する。具体的には、使用者の横顔の高さに情報端末2の高さが合うように情報端末2が置かれた上で、使用者の側面に対する情報端末2の距離及び方向を調整することによって使用者の側面の位置が調整される。このように、実際に使用者の側面画像を撮影する前に、側面シルエットE2の位置に使用者の側面の位置を合わせる調整を行う(側面の位置を合わせる工程、ステップS8)。 The user adjusts the side position of the user projected on the display 2b so as to match the side silhouette E2. Specifically, after the information terminal 2 is placed so that the height of the information terminal 2 matches the height of the profile of the user, the distance and direction of the information terminal 2 to the side of the user are adjusted. The lateral position of the user is adjusted. In this way, before actually photographing a side image of the user, adjustment is performed to align the side of the user with the position of the side silhouette E2 (step of aligning the side, step S8).

ディスプレイ2bにおいて側面シルエットE2の位置に使用者の位置が合わせられた状態でシャッターボタン21dが押されることにより、シャッターボタン21dが押されてからX秒が経過した後に(一例としてXの値は3)、使用者の側面の画像M2を撮影する(側面の画像を撮影する工程、ステップS9)。図6に示されるように、ディスプレイ2bには撮影された側面の画像M2が側面シルエットE2と共に表示される。 When the shutter button 21d is pressed with the user aligned with the side silhouette E2 on the display 2b, the shutter button 21d is pressed after X seconds (for example, the value of X is 3). ), and an image M2 of the side of the user is photographed (step of photographing the side image, step S9). As shown in FIG. 6, the captured side image M2 is displayed together with the side silhouette E2 on the display 2b.

そして、側面シルエットE2に対する側面の画像M2の拡大及び縮小が行われる(画像の大きさを調整する工程、ステップS10)。このとき、ディスプレイ2bに2本の指が当てられてピンチイン及びピンチアウトがなされることにより、側面シルエットE2の大きさに側面の画像M2の大きさが合わせられる。 Then, the side image M2 is enlarged and reduced with respect to the side silhouette E2 (the step of adjusting the size of the image, step S10). At this time, by putting two fingers on the display 2b and pinching in and out, the size of the side image M2 is adjusted to the size of the side silhouette E2.

ディスプレイ2bにおいて、OKボタン14gが押されると、図7に示されるように、側面画像取得部14は、側面の画像M2における身体の各部の位置を確定させるための画面を表示する。側面画像取得部14は、画像M2と共にマークK3,K4,K5をディスプレイ2bに表示する。 When the OK button 14g is pressed on the display 2b, the side image acquisition unit 14 displays a screen for confirming the positions of the body parts in the side image M2, as shown in FIG. The side image acquisition unit 14 displays the marks K3, K4, and K5 together with the image M2 on the display 2b.

使用者は、例えば、ディスプレイ2b上において、マークK3の矢印の先端を後頭部M6の突出した部分に合わせて、マークK4の先端を首M3の窪んだ部分に合わせ、マークK5の矢印の先端を背中M5の最も突出した部分に合わせる(マークの位置を調整する工程、ステップS11)。その後、OKボタン14jが押されると、例えば、側面画像取得部14が側面の画像M2を取得及び決定する(側面の画像を取得する工程、ステップS12)。 For example, on the display 2b, the user aligns the tip of the arrow mark K3 with the protruding portion of the back of the head M6, aligns the tip of the mark K4 with the recessed portion of the neck M3, and aligns the tip of the arrow mark K5 with the back. Align with the most protruding part of M5 (step of adjusting the position of the mark, step S11). After that, when the OK button 14j is pressed, for example, the side image acquiring unit 14 acquires and determines the side image M2 (step of acquiring the side image, step S12).

OKボタン14jが押された後には、身体位置取得部16が使用者の身体の各部の位置を取得し、例えば、身体データ算出部17が肩の形状データD1、首の形状データD2及び後頭部の形状データD3を算出する。例えば、図4及び図7に示されるように、身体データ算出部17は、画像M1における使用者の首M3から肩M4までの水平方向への長さを肩の形状データD1として算出し、画像M2における使用者の背中M5から首M3までの水平方向への長さを首の形状データD2として算出する。例えば、身体データ算出部17は、使用者の背中M5から後頭部M6までの水平方向への長さを後頭部の形状データD3として算出する。以上のように、身体データ算出部17は、側面の画像M2から使用者の首M3の形状データD2を算出すると共に、正面の画像M1から使用者の肩M4の形状データD1を算出する(形状データ(身体データ)を算出する工程、ステップS13)。 After the OK button 14j is pressed, the body position acquisition unit 16 acquires the positions of each part of the user's body. Shape data D3 is calculated. For example, as shown in FIGS. 4 and 7, the physical data calculation unit 17 calculates the horizontal length from the neck M3 to the shoulder M4 of the user in the image M1 as the shoulder shape data D1. The length in the horizontal direction from the user's back M5 to the neck M3 in M2 is calculated as neck shape data D2. For example, the body data calculator 17 calculates the horizontal length from the user's back M5 to the back of the head M6 as the shape data D3 of the back of the head. As described above, the physical data calculator 17 calculates the shape data D2 of the user's neck M3 from the side image M2, and calculates the shape data D1 of the user's shoulders M4 from the front image M1 (shape a step of calculating data (physical data), step S13);

その後、判定部18が首の形状データD2から枕の高さを判定し(高さを判定する工程、ステップS14)、コメント抽出部19が肩の形状データD1、首の形状データD2及び後頭部の形状データD3に応じたコメントをコメント表Cから抽出する(コメントを抽出する工程、ステップS14)。 After that, the determination unit 18 determines the height of the pillow from the neck shape data D2 (step of determining height, step S14), and the comment extraction unit 19 extracts the shoulder shape data D1, the neck shape data D2, and the back of the head. A comment corresponding to the shape data D3 is extracted from the comment table C (comment extraction step, step S14).

判定部18による判定結果、及びコメント抽出部19によって抽出されたコメントは表示部20によってディスプレイ2bに表示される(表示する工程、ステップS15)。このとき、例えば図9に示されるように、表示部20は、テキスト表示部23b、アイコン表示部23c及びメーター表示部23dに判定部18による判定結果を表示すると共に、コメント表示部24bにコメント抽出部19によって抽出されたコメントを表示する。以上の工程を経て、寝具提案方法の一連の工程が完了する。 The determination result by the determination unit 18 and the comment extracted by the comment extraction unit 19 are displayed on the display 2b by the display unit 20 (step of displaying, step S15). At this time, for example, as shown in FIG. 9, the display unit 20 displays the determination result by the determination unit 18 on the text display unit 23b, the icon display unit 23c, and the meter display unit 23d, and extracts the comment on the comment display unit 24b. The comment extracted by the part 19 is displayed. Through the above steps, a series of steps of the bedding proposal method is completed.

次に、本実施形態に係る寝具提案システム1及び寝具提案方法から得られる作用効果について説明する。本実施形態に係る寝具提案システム1及び寝具提案方法では、正面画像取得部12が使用者の正面の画像M1を取得し、側面画像取得部14が使用者の側面の画像M2を取得する。 Next, effects obtained from the bedding proposal system 1 and the bedding proposal method according to the present embodiment will be described. In the bedding proposal system 1 and the bedding proposal method according to the present embodiment, the front image acquisition unit 12 acquires the front image M1 of the user, and the side image acquisition unit 14 acquires the side image M2 of the user.

身体データ算出部17は、使用者の側面の画像M2から使用者の首の形状データD2を算出すると共に、使用者の正面の画像M1から使用者の肩の形状データD1を算出する。よって、側面の画像M2から使用者の首の形状データD2を算出すると共に、正面の画像M1から使用者の肩の形状データD1を算出するので、使用者の身体の形状データを高精度に取得することができる。従って、寝具の提案の精度を高めることができる。 The body data calculator 17 calculates the user's neck shape data D2 from the user's side image M2, and calculates the user's shoulder shape data D1 from the user's front image M1. Therefore, since the user's neck shape data D2 is calculated from the side image M2 and the user's shoulder shape data D1 is calculated from the front image M1, the user's body shape data can be obtained with high accuracy. can do. Therefore, it is possible to improve the accuracy of bedding suggestions.

寝具提案システム1において、判定部18は首の形状データD2から寝具の高さを判定すると共に、首の形状データD2及び肩の形状データD1に基づいてコメント抽出部19がコメントを抽出する。そして、判定された寝具の高さ、及び抽出されたコメントが表示部20に表示される。従って、使用者の身体の形状データに基づいて寝具の高さ及びコメントが表示されるので、使用者は自分に相応しい寝具の高さを把握できると共にコメントによるアドバイスを受けることができる。よって、使用者に十分な提案を行うことができる。 In the bedding proposal system 1, the determination unit 18 determines the height of bedding from the neck shape data D2, and the comment extraction unit 19 extracts comments based on the neck shape data D2 and the shoulder shape data D1. Then, the determined bedding height and the extracted comment are displayed on the display unit 20 . Therefore, since the height of the bedding and the comment are displayed based on the user's body shape data, the user can grasp the height of the bedding suitable for him/herself and receive advice from the comment. Therefore, a sufficient proposal can be made to the user.

本実施形態に係る寝具提案システム1では、使用者が情報端末2を操作して情報端末2で使用者の正面及び側面を撮影することによって枕の高さ判定とコメント表示が行われる。従って、使用者は、枕等の店舗に行かなくても、例えば自宅で自分に相応しい寝具(枕)の提案を受けることができるので、寝具提案システム1を自分一人で手軽に用いることができると共に、いつでもどこでも寝具(枕)に関する提案を受けることができる。 In the bedding proposal system 1 according to this embodiment, the user operates the information terminal 2 to photograph the front and side of the user with the information terminal 2, thereby determining the height of the pillow and displaying a comment. Therefore, the user can receive a proposal of suitable bedding (pillow) at home, for example, without going to a pillow store, so that the user can easily use the bedding proposal system 1 by himself/herself. , You can receive suggestions for bedding (pillows) anytime, anywhere.

本実施形態において、身体データ算出部17は、側面の画像M2から使用者の後頭部の形状データD3を更に算出する。コメント抽出部19は、首の形状データD2、肩の形状データD1、及び後頭部の形状データD3に応じてコメントを抽出する。この場合、首の形状データD2、及び肩の形状データD1に加えて、後頭部の形状データD3に基づいてコメントが抽出される。従って、コメントの抽出をより高精度に行うことができるので、使用者に対する寝具の提案の精度をより高めることができる。 In this embodiment, the body data calculator 17 further calculates the shape data D3 of the back of the user's head from the side image M2. The comment extraction unit 19 extracts comments according to the neck shape data D2, the shoulder shape data D1, and the back of the head shape data D3. In this case, comments are extracted based on the shape data D3 of the back of the head in addition to the shape data D2 of the neck and the shape data D1 of the shoulders. Therefore, comments can be extracted with higher accuracy, so that the accuracy of bedding proposals to the user can be improved.

本実施形態において、寝具提案システム1は、正面画像取得部12によって取得された正面の画像M1、及び側面画像取得部14によって取得された側面の画像M2のそれぞれと共にマークK1,K2,K3,K4,K5を表示するマーク表示部15を備える。マークK1,K2,K3,K4,K5は、正面の画像M1、及び側面の画像M2のそれぞれにおいて移動可能とされており、身体データ算出部17は、マークK1,K2,K3,K4,K5の位置に基づいて、首の形状データD2、及び肩の形状データD1を算出する。この場合、撮影された正面の画像M1、及び側面の画像M2のそれぞれに対して肩の位置、及び首の位置をマーキングし、マーキングされた位置に基づいて身体の形状データを算出することが可能である。従って、身体の形状データの精度を一層高めることができる。 In the present embodiment, the bedding proposal system 1 includes marks K1, K2, K3, and K4 together with the front image M1 acquired by the front image acquisition unit 12 and the side image M2 acquired by the side image acquisition unit 14, respectively. , K5. The marks K1, K2, K3, K4, and K5 are movable in the front image M1 and the side image M2, respectively. Based on the position, neck shape data D2 and shoulder shape data D1 are calculated. In this case, it is possible to mark the positions of the shoulders and the neck for each of the captured front image M1 and side image M2, and to calculate body shape data based on the marked positions. is. Therefore, the accuracy of body shape data can be further improved.

本実施形態に係る寝具提案方法は、人の正面を模した正面シルエットE1を表示する工程と、正面の画像M1を取得した後に、正面シルエットE1の大きさに正面の画像M1の大きさを合わせる工程と、人の側面を模した側面シルエットE2を表示する工程と、側面の画像M2を取得した後に、側面シルエットE2の大きさに側面の画像M2の大きさを合わせる工程と、を更に備える。この場合、画像の取得後にシルエットに画像の大きさが合わせられるので、身体の大きさに関するデータの精度を高めることができる。従って、身体の形状データをより高精度に取得することができる。 The bedding proposal method according to the present embodiment includes steps of displaying a front silhouette E1 imitating the front of a person, and after obtaining the front image M1, adjusting the size of the front image M1 to the size of the front silhouette E1. a step of displaying a side silhouette E2 modeled on the side of a person; and a step of adjusting the size of the side image M2 to the size of the side silhouette E2 after obtaining the side image M2. In this case, since the size of the image is adjusted to the silhouette after the image is obtained, the accuracy of the data regarding the body size can be improved. Therefore, body shape data can be obtained with higher accuracy.

本実施形態に係る寝具提案方法は、正面の画像M1を取得する前に、正面シルエットE1の位置に正面の位置を合わせる工程と、側面の画像M2を取得する前に、側面シルエットE2の位置に側面の位置を合わせる工程と、を更に備える。この場合、撮影前にシルエットに身体の大きさが合わせられる。よって、身体の大きさがシルエットに合わせられた状態で撮影が行われるので、身体の形状データを更に高精度に取得することができる。 The bedding proposal method according to the present embodiment includes the step of aligning the front position with the position of the front silhouette E1 before acquiring the front image M1, and the step of adjusting the position of the side silhouette E2 before acquiring the side image M2. aligning the sides. In this case, the size of the body is adjusted to the silhouette before shooting. Therefore, since the photographing is performed in a state in which the size of the body is adjusted to the silhouette, the shape data of the body can be acquired with higher accuracy.

以上、本開示に係る寝具提案システム及び寝具提案方法の実施形態について説明した。しかしながら、本開示に係る寝具提案システム及び寝具提案方法は、前述した実施形態に限定されるものではなく、各請求項に記載した要旨を変更しない範囲において変形し、又は他のものに適用されたものであってもよい。すなわち、寝具提案システムの各部の構成及び機能、並びに、寝具提案方法の工程の内容及び順序は、上記の要旨を変更しない範囲において適宜変更可能である。 The embodiments of the bedding proposal system and the bedding proposal method according to the present disclosure have been described above. However, the bedding proposal system and the bedding proposal method according to the present disclosure are not limited to the above-described embodiments, and can be modified or applied to other things within the scope of not changing the gist described in each claim. can be anything. That is, the configuration and function of each part of the bedding proposal system, and the content and order of the steps of the bedding proposal method can be changed as appropriate without changing the gist of the above.

例えば、前述の実施形態では、図9に示されるように、表示部20が判定部18による判定結果、及びコメント抽出部19によって抽出されたコメントをディスプレイ2bに表示する例について説明した。しかしながら、表示部20は、枕の高さの判定結果、及びコメント以外のものをディスプレイ2bに表示してもよい。 For example, in the above embodiment, as shown in FIG. 9, the display unit 20 displays the judgment result by the judgment unit 18 and the comment extracted by the comment extraction unit 19 on the display 2b. However, the display unit 20 may display on the display 2b anything other than the determination result of the pillow height and the comment.

例えば、表示部20は、枕の高さの判定結果、及びコメントを表示した後に、図11に示されるように、枕の内容物の種類、及び枕のお手入れ方法を表示してもよい。この場合、表示部20は、内容物表示部26に枕の内容物の種類を表示すると共に、お手入れ方法表示部27に枕のお手入れ方法を表示する。一例として、内容物表示部26は、ダウン・フェザー、エラストマーパイプ及びひのき等の内容物の画像を表示すると共に、内容物のコメントを表示する。お手入れ方法表示部27は、枕の側地の洗浄方法等の枕のお手入れ方法のテキストメッセージを表示する。 For example, after displaying the determination result of the pillow height and the comment, the display unit 20 may display the type of contents of the pillow and the pillow care method, as shown in FIG. 11 . In this case, the display unit 20 displays the type of contents of the pillow on the content display unit 26 and displays the pillow care method on the care method display unit 27 . As an example, the contents display section 26 displays an image of contents such as down feathers, an elastomer pipe, and a cypress, as well as comments on the contents. The care method display unit 27 displays a text message about how to care for the pillow, such as how to wash the side of the pillow.

また、表示部20は、枕の高さの判定結果、及びコメントを表示した後に、枕の購入のためのインターネットサイトを表示してもよい。例えば、表示部20は、表示した枕の高さの判定結果に適合した枕の情報を情報端末2の記憶部から抽出し、抽出した枕の情報(枕の画像等)をディスプレイ2bに表示してもよい。情報端末2は、枕の判定結果に適合した枕の情報(枕、及びその購入方法等の情報)をサーバから受信してもよい。この場合、使用者は、自分に相応しい枕の高さを把握できると共に、自分に相応しい枕の情報を入手して、当該枕を速やかに購入することが可能となる。 Further, the display unit 20 may display the Internet site for purchasing the pillow after displaying the determination result of the pillow height and the comment. For example, the display unit 20 extracts pillow information that matches the displayed pillow height determination result from the storage unit of the information terminal 2, and displays the extracted pillow information (pillow image, etc.) on the display 2b. may The information terminal 2 may receive, from the server, information on pillows that match the pillow determination results (information on pillows, methods of purchasing the pillows, and the like). In this case, the user can grasp the height of the pillow suitable for him/herself, obtain information on the pillow suitable for him/herself, and promptly purchase the pillow.

また、寝具提案方法において、表示部20が枕の判定結果、及びコメントをディスプレイ2bに表示した後に、当該ディスプレイ2bを枕の販売員に見せて当該販売員が使用者に相応しい枕を提案してもよい。この場合、ディスプレイ2bに表示された判定結果及びコメントを販売員が見ることによって、販売員は速やかに使用者に相応しい枕の情報を把握でき、使用者に相応しい枕を的確且つ迅速に提案することができる。 Further, in the bedding proposal method, after the display unit 20 displays the pillow determination result and the comment on the display 2b, the display 2b is shown to a pillow salesperson, and the salesperson proposes a suitable pillow for the user. good too. In this case, by looking at the determination results and comments displayed on the display 2b, the salesperson can quickly grasp the information on the pillow suitable for the user, and can propose the suitable pillow for the user accurately and quickly. can be done.

また、前述の実施形態では、判定部18によって首の高さ、後頭部の高さ、及び肩の広さが判定され、コメント抽出部19が判定された首の高さ、後頭部の高さ、及び肩の広さに応じてコメントを抽出する例について説明した。しかしながら、判定部18は首の高さ、後頭部の高さ、及び肩の広さの全てを判定しなくてもよいし、コメント抽出部19は判定された首の高さ、後頭部の高さ、及び肩の広さの全てに応じてコメントを抽出しなくてもよい。例えば、判定部18によって首の高さ及び肩の広さが判定され、コメント抽出部19は判定された首の高さ、及び肩の広さに応じたコメントを抽出してもよい。 In the above-described embodiment, the determination unit 18 determines the height of the neck, the height of the back of the head, and the width of the shoulders, and the comment extraction unit 19 determines the height of the neck, the height of the back of the head, and the height of the back of the head. An example of extracting comments according to shoulder width has been described. However, the determination unit 18 does not have to determine all of the height of the neck, the height of the back of the head, and the width of the shoulders. and shoulder width. For example, the determination unit 18 may determine the height of the neck and the width of the shoulders, and the comment extraction unit 19 may extract comments according to the determined height of the neck and width of the shoulders.

また、前述の実施形態では、正面シルエットE1に撮影される使用者の正面の画像を合わせ、側面シルエットE2に撮影される使用者の側面の画像を合わせる例について説明した。しかしながら、正面シルエットE1に使用者の正面の画像を合わせなくてもよいし、側面シルエットE2に使用者の側面の画像を合わせなくてもよい。更に、正面シルエットE1を表示する工程、及び側面シルエットE2を表示する工程の少なくともいずれかが省略されてもよい。 Further, in the above-described embodiment, an example has been described in which the image of the front of the user photographed with the front silhouette E1 is combined, and the image of the side of the user photographed with the side silhouette E2 is combined. However, the image of the front of the user may not be aligned with the front silhouette E1, and the image of the user's side may not be aligned with the side silhouette E2. Furthermore, at least one of the step of displaying the front silhouette E1 and the step of displaying the side silhouette E2 may be omitted.

例えば、前述の実施形態では、正面シルエット表示部11、正面画像取得部12、側面シルエット表示部13、側面画像取得部14、マーク表示部15、身体位置取得部16、身体データ算出部17、判定部18、コメント抽出部19及び表示部20を備える寝具提案システム1について説明した。しかしながら、正面シルエット表示部11、正面画像取得部12、側面シルエット表示部13、側面画像取得部14、マーク表示部15、身体位置取得部16、身体データ算出部17、判定部18、コメント抽出部19及び表示部20の少なくともいずれかを有しない寝具提案システムであってもよい。 For example, in the above embodiment, the front silhouette display unit 11, the front image acquisition unit 12, the side silhouette display unit 13, the side image acquisition unit 14, the mark display unit 15, the body position acquisition unit 16, the body data calculation unit 17, the determination The bedding proposal system 1 including the unit 18, the comment extraction unit 19, and the display unit 20 has been described. However, the front silhouette display unit 11, the front image acquisition unit 12, the side silhouette display unit 13, the side image acquisition unit 14, the mark display unit 15, the body position acquisition unit 16, the body data calculation unit 17, the determination unit 18, and the comment extraction unit A bedding proposal system that does not have at least one of 19 and display unit 20 may be used.

前述の実施形態では、寝具が枕である例について説明した。しかしながら、本開示に係る寝具提案システム及び寝具提案方法は、枕以外の寝具に適用させることも可能である。例えば、寝具提案システム及び寝具提案方法は、クッション、マットレス若しくは敷き布団等の敷き寝具、ベッドパッド、又は座布団に適用されたものであってもよく、寝具提案システム及び寝具提案方法が適用される寝具の種類は適宜変更可能である。 In the above-described embodiment, an example in which the bedding is a pillow has been described. However, the bedding proposal system and the bedding proposal method according to the present disclosure can also be applied to bedding other than pillows. For example, the bedding proposal system and bedding proposal method may be applied to bedding such as cushions, mattresses or futons, bed pads, or floor cushions, and bedding to which the bedding proposal system and bedding proposal method are applied. The type can be changed as appropriate.

1…寝具提案システム、2…情報端末、2b…ディスプレイ、11…正面シルエット表示部、12…正面画像取得部、12b…正面画像調整部、12c…メッセージ、12d…OKボタン、12f…メッセージ、12g…OKボタン、13…側面シルエット表示部、14…側面画像取得部、14b…側面画像調整部、14c…目位置確定部、14d…後頭部確定部、14f…メッセージ、14g…OKボタン、14h…メッセージ、14j…OKボタン、15…マーク表示部、16…身体位置取得部、17…身体データ算出部、18…判定部、19…コメント抽出部、20…表示部、21…操作画面、21b…操作内容、21c…進行状況バー、21d…シャッターボタン、21f…切り替えボタン、21g…メッセージ、22…操作画面、22b…操作内容、22c…進行状況バー、22g…メッセージ、23…表示画面、23b…テキスト表示部、23c…アイコン表示部、23d…メーター表示部、24…コメント表示画面、24b…コメント表示部、25…再計測確認ボタン、26…内容物表示部、27…お手入れ方法表示部、C…コメント表、D1…肩の形状データ、D2…首の形状データ、D3…後頭部の形状データ、E1…正面シルエット、E2…側面シルエット、K1,K2,K3,K4,K5…マーク、M1,M2…画像、M3…首、M4…肩、M5…背中、M6…後頭部、S11,S21…枠。 1... bedding proposal system, 2... information terminal, 2b... display, 11... front silhouette display unit, 12... front image acquisition unit, 12b... front image adjustment unit, 12c... message, 12d... OK button, 12f... message, 12g OK button 13 Side silhouette display unit 14 Side image acquisition unit 14b Side image adjustment unit 14c Eye position determination unit 14d Occipital region determination unit 14f Message 14g OK button 14h Message , 14j OK button 15 mark display unit 16 body position acquisition unit 17 body data calculation unit 18 determination unit 19 comment extraction unit 20 display unit 21 operation screen 21b operation Contents 21c Progress bar 21d Shutter button 21f Switching button 21g Message 22 Operation screen 22b Operation content 22c Progress bar 22g Message 23 Display screen 23b Text Display section 23c... Icon display section 23d... Meter display section 24... Comment display screen 24b... Comment display section 25... Re-measurement confirmation button 26... Contents display section 27... Maintenance method display section C ... Comment table D1 ... Shoulder shape data D2 ... Neck shape data D3 ... Occipital shape data E1 ... Front silhouette E2 ... Side silhouette K1, K2, K3, K4, K5 ... Marks M1, M2 ... image, M3 ... neck, M4 ... shoulder, M5 ... back, M6 ... back of head, S11, S21 ... frame.

Claims (6)

使用者に寝具を提案するときに用いられる寝具提案システムであって、
前記使用者の正面の画像を取得する正面画像取得部と、
前記使用者の側面の画像を取得する側面画像取得部と、
前記側面の画像から前記使用者の首の形状データを算出すると共に、前記正面の画像から前記使用者の肩の形状データを算出する身体データ算出部と、
前記首の形状データから寝具の高さを判定する判定部と、
前記首の形状データ、及び前記肩の形状データに応じてコメントを抽出するコメント抽出部と、
前記判定部によって判定された前記寝具の高さ、及び前記コメント抽出部によって抽出された前記コメントを表示する表示部と、
を備える寝具提案システム。
A bedding proposal system used when suggesting bedding to a user,
a front image acquisition unit that acquires an image of the front of the user;
a side image acquisition unit that acquires an image of the user's side;
a body data calculation unit that calculates neck shape data of the user from the side image and calculates shoulder shape data of the user from the front image;
a determination unit that determines the height of bedding from the neck shape data;
a comment extraction unit for extracting a comment according to the shape data of the neck and the shape data of the shoulder;
a display unit for displaying the height of the bedding determined by the determination unit and the comment extracted by the comment extraction unit;
A bedding suggestion system comprising:
前記身体データ算出部は、前記側面の画像から前記使用者の後頭部の形状データを更に算出し、
前記コメント抽出部は、前記首の形状データ、前記肩の形状データ、及び前記後頭部の形状データからコメントを抽出する、
請求項1に記載の寝具提案システム。
The body data calculation unit further calculates shape data of the back of the user's head from the side image,
The comment extraction unit extracts comments from the shape data of the neck, the shape data of the shoulders, and the shape data of the back of the head.
The bedding suggestion system according to claim 1.
前記正面画像取得部によって取得された前記正面の画像、及び前記側面画像取得部によって取得された前記側面の画像のそれぞれと共にマークを表示するマーク表示部を備え、
前記マークは、前記正面の画像、及び前記側面の画像のそれぞれにおいて移動可能とされており、
前記身体データ算出部は、前記マークの位置に基づいて、前記首の形状データ、及び前記肩の形状データを算出する、
請求項1又は2に記載の寝具提案システム。
a mark display unit displaying a mark together with each of the front image acquired by the front image acquisition unit and the side image acquired by the side image acquisition unit;
The mark is movable in each of the front image and the side image,
The body data calculation unit calculates the shape data of the neck and the shape data of the shoulder based on the position of the mark.
The bedding suggestion system according to claim 1 or 2.
使用者に寝具を提案する寝具提案方法であって、
前記使用者の正面の画像を取得する工程と、
前記使用者の側面の画像を取得する工程と、
前記側面の画像から前記使用者の首の形状データを算出すると共に、前記正面の画像から前記使用者の肩の形状データを算出する工程と、
前記首の形状データから寝具の高さを判定する工程と、
前記首の形状データ、及び前記肩の形状データに応じてコメントを抽出する工程と、
前記判定する工程において判定された前記寝具の高さ、及び前記コメントを抽出する工程において抽出された前記コメントを表示する工程と、
を備える寝具提案方法。
A bedding proposal method for proposing bedding to a user,
obtaining an image of the front of the user;
obtaining an image of the side of the user;
calculating shape data of the user's neck from the side image and calculating shape data of the user's shoulder from the front image;
determining the height of the bedding from the neck shape data;
a step of extracting a comment according to the shape data of the neck and the shape data of the shoulder;
a step of displaying the height of the bedding determined in the determining step and the comment extracted in the step of extracting the comment;
a bedding proposal method comprising:
人の正面を模した正面シルエットを表示する工程と、
前記正面の画像を取得した後に、前記正面シルエットの大きさに前記正面の画像の大きさを合わせる工程と、
人の側面を模した側面シルエットを表示する工程と、
前記側面の画像を取得した後に、前記側面シルエットの大きさに前記側面の画像の大きさを合わせる工程と、
を更に備える、
請求項4に記載の寝具提案方法。
a step of displaying a front silhouette imitating the front of a person;
After acquiring the front image, adjusting the size of the front image to the size of the front silhouette;
a step of displaying a side silhouette imitating the side of a person;
adjusting the size of the side image to the size of the side silhouette after acquiring the side image;
further comprising
The bedding proposal method according to claim 4.
前記正面の画像を取得する前に、前記正面シルエットの位置に前記正面の位置を合わせる工程と、
前記側面の画像を取得する前に、前記側面シルエットの位置に前記側面の位置を合わせる工程と、
を更に備える、
請求項5に記載の寝具提案方法。
Aligning the position of the front face with the position of the silhouette of the front face before acquiring the image of the front face;
aligning the side face to the position of the side silhouette before acquiring the image of the side face;
further comprising
The bedding proposal method according to claim 5.
JP2021134282A 2021-08-19 2021-08-19 Bedclothes proposition system and bedclothes proposition method Pending JP2023028527A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021134282A JP2023028527A (en) 2021-08-19 2021-08-19 Bedclothes proposition system and bedclothes proposition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021134282A JP2023028527A (en) 2021-08-19 2021-08-19 Bedclothes proposition system and bedclothes proposition method

Publications (1)

Publication Number Publication Date
JP2023028527A true JP2023028527A (en) 2023-03-03

Family

ID=85331069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021134282A Pending JP2023028527A (en) 2021-08-19 2021-08-19 Bedclothes proposition system and bedclothes proposition method

Country Status (1)

Country Link
JP (1) JP2023028527A (en)

Similar Documents

Publication Publication Date Title
US9996963B2 (en) Devices, frameworks and methodologies for enabling user-driven determination of body size and shape information and utilisation of such information across a networked environment
US8254637B2 (en) Mask fitting system and method
JP6091472B2 (en) Product provision system, product provision method, and product provision program
US8878922B2 (en) Video image information processing apparatus and video image information processing method
US20170076487A1 (en) System and Method to Capture and Process Body Measurements
TW201820279A (en) System and method for training and monitoring administration of inhaler medication
US20170118357A1 (en) Methods and systems for automatic customization of printed surfaces with digital images
KR20150009229A (en) Appartus and system for interactive cpr simulator based on augmented reality
KR20200025291A (en) A shopping service procedure and shopping service system using personal community device
JP5797549B2 (en) Information display device and program
JP2016185275A (en) Body height measuring apparatus, bioinstrumentation booth, body height measuring apparatus control method and control program
JP2023028527A (en) Bedclothes proposition system and bedclothes proposition method
JP6868673B1 (en) Information processing equipment, information processing methods, and information processing programs
US20190231012A1 (en) Systems and methods for preparing custom clothing patterns
TWI789674B (en) Information acquisition device, information acquisition method, and control program
JP6577150B2 (en) Human body model display system, human body model display method, communication terminal device, and computer program
TWI796624B (en) Information providing device, information providing method, and control program
KR100454440B1 (en) System and method of making 3D body model
JP2017016418A (en) Hairstyle proposal system
JP7486163B2 (en) Bedding suggestion system and bedding suggestion method
TWI644285B (en) Acupuncture visualization Chinese medicine system and method thereof by using AR technology
JP2017034409A (en) Image processing system, image processing method and computer program
US20160148117A1 (en) Attribute estimation system
JP2020204790A (en) Simulation apparatus, simulation method and computer program
JP7381139B1 (en) Programs, computer equipment and methods