JP2023108395A - Bedding proposal system and bedding proposal method - Google Patents

Bedding proposal system and bedding proposal method Download PDF

Info

Publication number
JP2023108395A
JP2023108395A JP2022009496A JP2022009496A JP2023108395A JP 2023108395 A JP2023108395 A JP 2023108395A JP 2022009496 A JP2022009496 A JP 2022009496A JP 2022009496 A JP2022009496 A JP 2022009496A JP 2023108395 A JP2023108395 A JP 2023108395A
Authority
JP
Japan
Prior art keywords
bedding
user
position information
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022009496A
Other languages
Japanese (ja)
Inventor
淳 安川
Atsushi Yasukawa
秀暁 茂木
Hideaki Mogi
慎一 井島
Shinichi Ijima
惣一郎 田口
Soichiro Taguchi
奨 池田
Susumu Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nishikawa Co Ltd
Original Assignee
Nishikawa Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nishikawa Co Ltd filed Critical Nishikawa Co Ltd
Priority to JP2022009496A priority Critical patent/JP2023108395A/en
Publication of JP2023108395A publication Critical patent/JP2023108395A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a bedding proposal system and a bedding proposal method that can propose bedding with high accuracy.SOLUTION: A bedding proposal system 1 according to an embodiment comprises a photographed data obtaining unit 33, a first position information obtaining unit 31, a second position information obtaining unit 32, a selection unit 20, a content data calculation unit 51, and a content data display unit 52. The photographed data obtaining unit 33 obtains photographed data on a body of a user of bedding. The first position information obtaining unit 31 obtains position information of each part of the body of the user from the photographed data. The second position information obtaining unit 32 obtains position information of each part of the body of the user from a measurement instrument in contact with the user. The selection unit 20 causes one of the first position information obtaining unit 31 and the second position information obtaining unit 32 to be selected. The content data calculation unit 51 calculates content data of the bedding from the position information obtained by one of the first position information obtaining unit 31 and the second position information obtaining unit 32. The content data display unit 52 displays the content data.SELECTED DRAWING: Figure 1

Description

本開示は、寝具提案システム及び寝具提案方法に関する。 The present disclosure relates to a bedding suggestion system and a bedding suggestion method.

特開2021-186247号公報には、寝具提案システムが記載されている。寝具提案システムは、情報端末によって用いられる。寝具提案システムは、撮影部と、身体位置取得部と、内容データ算出部とを備える。身体位置取得部は、撮影部によって撮影された身体から身体の各部の位置を取得する。内容データ算出部は、取得された身体の各部の位置から寝具の内容データを算出して表示する。寝具提案システムは、使用者に内容データを表示することで、使用者に適した寝具の提案を行う。 Japanese Patent Application Laid-Open No. 2021-186247 describes a bedding suggestion system. The bedding suggestion system is used by an information terminal. The bedding proposal system includes an imaging unit, a body position acquisition unit, and a content data calculation unit. The body position acquisition unit acquires the positions of each part of the body from the body imaged by the imaging unit. The content data calculation unit calculates and displays the content data of the bedding from the acquired positions of the body parts. The bedding proposal system proposes bedding suitable for the user by displaying content data to the user.

特開2021-186247号公報JP 2021-186247 A

前述した寝具提案システムは、撮影された身体から取得した身体の各部の位置に基づいて、使用者に適した寝具の提案を行う。しかしながら、撮影された身体から身体の各部の位置を取得するので、背景、及び使用者の着衣などの撮影条件によっては、身体の各部の位置を正確に取得できない可能性がある。よって、寝具の提案の精度において改善の余地がある。 The bedding proposal system described above proposes bedding suitable for the user based on the positions of each part of the body obtained from the photographed body. However, since the position of each part of the body is acquired from the photographed body, there is a possibility that the position of each part of the body cannot be acquired accurately depending on the shooting conditions such as the background and the user's clothes. Therefore, there is room for improvement in the accuracy of bedding suggestions.

本開示は、寝具を高精度に提案することができる寝具提案システム及び寝具提案方法を提供することを目的とする。 An object of the present disclosure is to provide a bedding proposal system and a bedding proposal method capable of highly accurately suggesting bedding.

本開示の一側面に係る寝具提案システムは、寝具を提案するときに用いられる。寝具提案システムは、撮影データ取得部、第1の位置情報取得部、第2の位置情報取得部、選択部、内容データ算出部及び内容データ表示部を備える。撮影データ取得部は、寝具の使用者の身体を撮影した撮影データを取得する。第1の位置情報取得部は、撮影データから使用者の身体の各部の位置情報を取得する。第2の位置情報取得部は、使用者に接触する測定器から使用者の身体の各部の位置情報を取得する。選択部は、第1の位置情報取得部及び第2の位置情報取得部の何れか一方を使用者に選択させる。内容データ算出部は、第1の位置情報取得部及び第2の位置情報取得部のうち使用者によって選択された一方によって取得された位置情報から寝具の内容データを算出する。内容データ表示部は、内容データを表示する。 A bedding proposal system according to one aspect of the present disclosure is used when suggesting bedding. The bedding proposal system includes a photographed data acquisition section, a first positional information acquisition section, a second positional information acquisition section, a selection section, a content data calculation section, and a content data display section. The photographed data acquisition unit acquires photographed data of the body of the user of the bedding. The first position information acquisition unit acquires position information of each part of the user's body from the photographed data. The second positional information acquisition unit acquires positional information of each part of the user's body from the measuring instrument that contacts the user. The selection unit allows the user to select one of the first location information acquisition unit and the second location information acquisition unit. The content data calculation unit calculates content data of the bedding from the position information acquired by one of the first position information acquisition unit and the second position information acquisition unit selected by the user. The content data display section displays content data.

この寝具提案システムでは、使用者は、第1の位置情報取得部及び第2の位置情報取得部の何れか一方を選択できる。使用者が第1の位置情報取得部を選択する場合には、使用者の身体の各部の位置情報は、使用者の身体の撮影によって得られた撮影データから取得される。従って、第1の位置情報取得部が選択される場合には、位置情報の取得にあたり測定器等を身体に接触させる必要がないので、撮影データから身体の各部の位置情報を容易に取得することができる。よって、使用者が第1の位置情報取得部を選択する場合には、使用者の身体の各部の位置情報を容易に取得できるので、寝具を簡易に提案することができる。使用者が第2の位置情報取得部を選択する場合には、使用者の身体の各部の位置情報は、測定器から取得される。測定器は使用者に接触して身体の位置情報を取得するので、背景、及び使用者の着衣などの撮影条件の影響を受けない。よって、使用者が第2の位置情報取得部を選択する場合には、使用者の身体の各部の位置情報を高精度に取得できるので、寝具を高精度に提案することができる。以上のように、使用者は、簡易な提案が可能な第1の位置情報取得部、及び高精度な提案が可能な第2の位置情報取得部の何れか一方を選択できるので、使用者のニーズに応じた柔軟な提案を実現できる。 In this bedding proposal system, the user can select either one of the first positional information obtaining section and the second positional information obtaining section. When the user selects the first positional information acquisition unit, positional information of each part of the user's body is acquired from photographed data obtained by photographing the user's body. Therefore, when the first positional information acquisition unit is selected, it is not necessary to bring the measuring instrument or the like into contact with the body when acquiring the positional information. can be done. Therefore, when the user selects the first positional information acquiring unit, the positional information of each part of the user's body can be easily acquired, so that bedding can be easily suggested. When the user selects the second positional information acquiring unit, the positional information of each part of the user's body is acquired from the measuring device. Since the measuring device acquires body position information by contacting the user, it is not affected by shooting conditions such as the background and the user's clothing. Therefore, when the user selects the second positional information acquiring unit, the positional information of each part of the user's body can be acquired with high accuracy, so bedding can be recommended with high accuracy. As described above, the user can select either the first location information acquisition unit capable of making a simple proposal or the second location information acquisition unit capable of making a highly accurate proposal. Flexible proposals can be realized according to needs.

測定器は、位置情報を含む識別コードを表示する識別コード表示部を備えてもよい。撮影データ取得部は、識別コード表示部が表示する識別コードを取得してもよい。第2の位置情報取得部は、撮影データ取得部が取得した識別コードから位置情報を取得してもよい。この場合、測定器が取得した使用者の身体の各部の位置情報を含む識別コードが撮影データ取得部によって取得される。このため、測定器が取得した使用者の身体の各部の位置情報を寝具提案システムに手動入力する場合と比べて、使用者の身体の各部の位置情報を測定器から容易に取得できる。 The measuring device may have an identification code display section that displays an identification code including position information. The captured data acquisition unit may acquire the identification code displayed by the identification code display unit. The second positional information acquiring section may acquire the positional information from the identification code acquired by the photographed data acquiring section. In this case, the photographed data acquisition unit acquires an identification code including the position information of each part of the user's body acquired by the measuring device. Therefore, the position information of each part of the user's body can be easily obtained from the measuring device, compared to the case of manually inputting the position information of each part of the user's body obtained by the measuring device into the bedding proposal system.

寝具提案システムは、形状データ算出部及び形状データ表示部を備えてもよい。形状データ算出部は、位置情報から身体の各部の形状を示す形状データを算出してもよい。形状データ表示部は、形状データを表示してもよい。撮影データ取得部は、使用者の寝姿勢が撮影されることによって得られる寝姿勢データを取得してもよい。形状データ表示部は、寝姿勢データと形状データとを重ねて表示してもよい。この場合、使用者の寝姿勢を示す寝姿勢データと、使用者の身体の各部の形状を示す形状データとが重なって表示される。これにより、使用者は、使用者自身の寝姿勢と身体の形状データとを見比べることで、寝姿勢における身体の形状と寝ていない姿勢で得られた身体の形状との違いを把握することができる。 The bedding proposal system may include a shape data calculator and a shape data display. The shape data calculation unit may calculate shape data indicating the shape of each part of the body from the position information. The shape data display section may display the shape data. The imaging data acquisition unit may acquire sleeping posture data obtained by imaging the sleeping posture of the user. The shape data display section may display the sleeping posture data and the shape data in an overlapping manner. In this case, the sleeping posture data indicating the sleeping posture of the user and the shape data indicating the shape of each part of the user's body are displayed in an overlapping manner. As a result, by comparing the user's own sleeping posture with the body shape data, the user can grasp the difference between the body shape in the sleeping posture and the body shape obtained in the non-sleeping posture. can.

寝具提案システムは、体型パターン判定部及び体型パターン表示部を備えてもよい。体型パターン判定部は、位置情報から使用者の体型パターンを判定してもよい。体型パターン表示部は、体型パターンを表示してもよい。撮影データ取得部は、使用者の寝姿勢が撮影されることによって得られる寝姿勢データを取得してもよい。体型パターン表示部は、体型パターンを示すシルエットと寝姿勢データとを重ねて表示してもよい。この場合、使用者の寝姿勢を示す寝姿勢データと、使用者の身体の各部の位置から判定される体型パターンを示すシルエットとが重なって表示される。体型パターンを示すシルエットは、使用者の身体の特徴をパターン化して示したものである。使用者は、このシルエットと寝姿勢データとを見ることによって、使用者自身の寝姿勢データと共に身体の特徴を把握することができる。 The bedding proposal system may include a body pattern determination unit and a body pattern display unit. The body pattern determination unit may determine the user's body pattern from the position information. The body pattern display section may display the body pattern. The imaging data acquisition unit may acquire sleeping posture data obtained by imaging the sleeping posture of the user. The body pattern display section may display the silhouette representing the body pattern and the sleeping posture data in an overlapping manner. In this case, the sleeping posture data representing the sleeping posture of the user and the silhouette representing the body shape pattern determined from the positions of each part of the user's body are displayed in an overlapping manner. A silhouette representing a body shape pattern is a pattern representing the features of the user's body. By looking at this silhouette and the sleeping posture data, the user can comprehend the user's own sleeping posture data as well as the features of the body.

寝具は、第1の寝具及び第2の寝具を含んでもよい。寝具提案システムは、寝具情報表示部を備えてもよい。寝具情報表示部は、第1の寝具の情報と第2の寝具の情報とを表示し、且つ、第1の寝具及び第2の寝具の何れか一方を使用者に選択可能としてもよい。内容データ表示部は、寝具情報表示部において選択された第1の寝具及び第2の寝具の何れか一方の内容データを表示してもよい。この場合、使用者が選択した第1の寝具又は第2の寝具の内容データが表示される。従って、この寝具提案システムでは、使用者によって選択された第1の寝具又は第2の寝具において、身体の各部の位置情報が加味された内容データを使用者が把握できるので、使用者のニーズにより適合した寝具の提案が可能となる。 The bedding may include first bedding and second bedding. The bedding suggestion system may comprise a bedding information display. The bedding information display unit may display information about the first bedding and information about the second bedding, and allow the user to select either one of the first bedding and the second bedding. The content data display section may display the content data of either the first bedding or the second bedding selected in the bedding information display section. In this case, the content data of the first bedding or second bedding selected by the user is displayed. Therefore, in this bedding proposal system, in the first bedding or the second bedding selected by the user, the user can grasp the content data including the position information of each part of the body. It is possible to propose suitable bedding.

本開示の他側面に係る寝具提案方法は、寝具を提案するときに用いられる寝具提案方法である。寝具提案方法は、撮影データ取得工程、選択工程、内容データ算出工程及び内容データ表示工程を備える。撮影データ取得工程は、寝具の使用者の身体を撮影した撮影データを取得する。選択工程は、第1の位置情報取得工程と第2の位置情報取得工程との何れか一方を使用者に選択させる。第1の位置情報取得工程は、使用者が撮影されることによって得られる撮影データから使用者の身体の各部の位置情報を取得する。第2の位置情報取得工程は、使用者に接触する測定器から使用者の身体の各部の位置情報を取得する。内容データ算出工程は、第1の位置情報取得工程及び第2の位置情報取得工程のうち使用者によって選択された一方によって取得された位置情報から寝具の内容データを算出する。内容データ表示工程は、内容データを表示する。 A bedding proposal method according to another aspect of the present disclosure is a bedding proposal method used when suggesting bedding. The bedding proposal method includes a photographed data acquisition step, a selection step, a content data calculation step, and a content data display step. The photographed data obtaining step obtains photographed data obtained by photographing the body of the user of the bedding. The selection step allows the user to select either the first location information acquisition step or the second location information acquisition step. The first position information acquisition step acquires position information of each part of the user's body from photographed data obtained by photographing the user. The second positional information acquisition step acquires positional information of each part of the user's body from the measuring device that contacts the user. The content data calculation step calculates content data of the bedding from the position information acquired by one of the first position information acquisition step and the second position information acquisition step selected by the user. The content data display step displays content data.

この寝具提案方法では、使用者は、第1の位置情報取得工程及び第2の位置情報取得工程の何れか一方を選択できる。使用者が第1の位置情報取得工程を選択する場合には、使用者の身体の各部の位置情報は、使用者の身体の撮影によって得られた撮影データから取得される。よって、前述した寝具提案システムと同様、使用者が第1の位置情報取得工程を選択する場合には、撮影データから身体の各部の位置情報を容易に取得できるので、寝具を簡易に提案することができる。使用者が第2の位置情報取得工程を選択する場合には、使用者の身体の各部の位置情報は、測定器から取得される。測定器は使用者に接触して体の位置情報を取得するので、前述した寝具提案システムと同様、寝具を高精度に提案することができる。従って、使用者は、簡易な提案が可能な第1の位置情報取得工程、及び高精度な提案が可能な第2の位置情報取得工程の何れか一方を選択できるので、使用者のニーズに応じた柔軟な提案を実現できる。 In this bedding proposal method, the user can select either the first positional information obtaining step or the second positional information obtaining step. When the user selects the first positional information obtaining step, positional information of each part of the user's body is obtained from photographed data obtained by photographing the user's body. Therefore, as in the bedding proposal system described above, when the user selects the first position information obtaining step, the position information of each part of the body can be easily obtained from the photographed data, so that the bedding can be easily proposed. can be done. When the user selects the second position information acquisition step, the position information of each part of the user's body is acquired from the measuring device. Since the measuring device contacts the user and obtains body position information, it is possible to highly accurately suggest bedding as in the bedding suggestion system described above. Therefore, the user can select either the first position information obtaining step that enables a simple proposal or the second position information obtaining step that enables a highly accurate proposal. flexible proposals can be realized.

本開示によれば、使用者の身体の各部の位置情報を高精度に取得できる。 According to the present disclosure, it is possible to acquire position information of each part of the user's body with high accuracy.

実施形態に係る寝具提案システムの構成の一例を示すブロック図である。It is a block diagram showing an example of composition of a bedding proposal system concerning an embodiment. 寝具提案システムの手動入力部における画面を模式的に示す図である。It is a figure which shows typically the screen in the manual input part of a bedding proposal system. 第1の位置情報取得部において取得される使用者の身体の各部の位置の例を示す側面図である。FIG. 4 is a side view showing an example of positions of parts of a user's body acquired by a first positional information acquisition unit; 取得された身体の各部の位置と寝具の情報とを示す画面を模式的に示す図である。FIG. 10 is a diagram schematically showing a screen showing acquired positions of each part of the body and information on bedding. 第2の位置情報取得部において測定器によって取得される使用者の身体の各部の位置の例を示す側面図である。FIG. 11 is a side view showing an example of the positions of parts of the user's body acquired by the measuring device in the second positional information acquiring section; (a)~(f)は、表示される体型パターンの例を示す図である。(a) to (f) are diagrams showing examples of body pattern patterns to be displayed. 身体の各部の形状を示す形状データとマットレスの内容データとを示す画面の例を模式的に示す図である。FIG. 10 is a diagram schematically showing an example of a screen showing shape data showing the shape of each part of the body and content data of the mattress; 使用者の寝姿勢を撮影して得られた寝姿勢データの例を示す図である。FIG. 4 is a diagram showing an example of sleeping posture data obtained by photographing the sleeping posture of a user; 使用者の上半身の各部のサイズの例を示す図である。It is a figure which shows the example of the size of each part of a user's upper body. 枕の内容データを示す画面を模式的に示す図である。It is a figure which shows typically the screen which shows the content data of a pillow. 実施形態に係る寝具提案方法の工程の例を示すフローチャートである。4 is a flow chart illustrating example steps of a bedding proposal method according to an embodiment.

以下では、図面を参照しながら本開示に係る寝具提案システム及び寝具提案方法の実施形態について説明する。図面の説明において、同一又は相当する要素には同一の符号を付し、重複する説明を適宜省略する。また、図面は、理解の容易化のため、一部を簡略化又は誇張して描いている場合があり、寸法比率等は図面に記載のものに限定されない。 Hereinafter, embodiments of a bedding proposal system and a bedding proposal method according to the present disclosure will be described with reference to the drawings. In the description of the drawings, the same or corresponding elements are denoted by the same reference numerals, and duplicate descriptions are omitted as appropriate. In addition, the drawings may be partially simplified or exaggerated for easy understanding, and the dimensional ratios and the like are not limited to those described in the drawings.

本開示に係る寝具提案システム及び寝具提案方法では、使用者に寝具を提案する。本開示において、「寝具」とは、身体を休めるときに身体に当てられるものを示している。「寝具」としては、例えば、マットレス若しくは敷き布団等の敷き寝具、掛け布団等の掛け寝具、枕、ベッドパッド、クッション又は座布団が挙げられる。 The bedding proposal system and the bedding proposal method according to the present disclosure propose bedding to the user. In the present disclosure, "bedding" refers to something that is applied to the body when resting. "Bedding" includes, for example, bedding such as a mattress or a futon, bedding such as a comforter, a pillow, a bed pad, a cushion, or a floor cushion.

本開示において「使用者」は、寝具を使用する者を示している。「使用者」は、寝具を購入する者、及び、寝具を試用する者(購入等のために寝具を試す者)を含む。「使用者」の人数は、一人であってもよいし、複数人であってもよい。 In the present disclosure, "user" indicates a person who uses the bedding. "User" includes a person who purchases bedding and a person who tries bedding (person who tries bedding for purchase etc.). The number of "users" may be one or more.

図1は、実施形態に係る寝具提案システム1の構成の一例を示すブロック図である。一例として、本実施形態では、寝具提案システム1は、情報端末2上で実行されるアプリケーションなどのプログラムである。情報端末2は、寝具を使用する使用者の情報端末、及び寝具を提案する提案者の情報端末、の双方を含む。寝具提案システム1は、情報端末2と通信可能なサーバ上で実行されてもよい。 FIG. 1 is a block diagram showing an example of the configuration of a bedding proposal system 1 according to an embodiment. As an example, in this embodiment, the bedding proposal system 1 is a program such as an application executed on the information terminal 2 . The information terminal 2 includes both an information terminal of a user who uses bedding and an information terminal of a proposer who proposes bedding. The bedding proposal system 1 may be executed on a server that can communicate with the information terminal 2 .

情報端末2は、例えば、携帯端末である。「携帯端末」は、例えば、スマートフォンを含む携帯電話、タブレット又はノートパソコン等、携帯可能な端末を示している。情報端末2は、携帯端末以外の端末であってもよく、例えば、パソコンであってもよい。情報端末2は、一例として、オペレーティングシステム及びソフトウェア(アプリケーション)等を実行するプロセッサ(例えばCPU)と、ROM及びRAMによって構成される主記憶部と、フラッシュメモリ等で構成される補助記憶部と、無線通信モジュール等で構成される通信制御部と、入力装置と、ディスプレイ等の出力装置とを備える。但し、情報端末2の構成は、上記に限定されず適宜変更可能である。 The information terminal 2 is, for example, a mobile terminal. A “portable terminal” indicates a portable terminal such as a mobile phone including a smart phone, a tablet, or a notebook computer. The information terminal 2 may be a terminal other than a mobile terminal, and may be a personal computer, for example. For example, the information terminal 2 includes a processor (for example, a CPU) that executes an operating system and software (applications), a main storage unit configured with a ROM and a RAM, an auxiliary storage unit configured with a flash memory or the like, It includes a communication control unit configured by a wireless communication module or the like, an input device, and an output device such as a display. However, the configuration of the information terminal 2 is not limited to the above and can be changed as appropriate.

情報端末2の各機能要素は、プロセッサ又は記憶部(例えば上記の主記憶部又は補助記憶部)に所定のソフトウェアを読み込ませて当該ソフトウェアを実行することによって実現される。プロセッサは、当該ソフトウェアに従って、前述した通信制御部、入力装置又は出力装置を動作させ、記憶部におけるデータの読み出し及び書き出しを行う。情報端末2の処理に用いられるデータ又はデータベースは記憶部に格納される。 Each functional element of the information terminal 2 is implemented by loading predetermined software into a processor or storage unit (for example, the main storage unit or auxiliary storage unit described above) and executing the software. The processor operates the communication control unit, the input device, or the output device described above according to the software, and reads and writes data in the storage unit. Data or databases used for processing of the information terminal 2 are stored in the storage unit.

寝具提案システム1は、一例として、手動入力部10、選択部20、第1の位置情報取得部31、第2の位置情報取得部32、撮影データ取得部33、寝具情報表示部40、内容データ算出部51、内容データ表示部52、形状データ算出部61、形状データ表示部62、体型パターン判定部71及び体型パターン表示部72を備える。 As an example, the bedding proposal system 1 includes a manual input unit 10, a selection unit 20, a first position information acquisition unit 31, a second position information acquisition unit 32, an image data acquisition unit 33, a bedding information display unit 40, content data A calculation unit 51 , a content data display unit 52 , a shape data calculation unit 61 , a shape data display unit 62 , a body pattern determination unit 71 and a body pattern display unit 72 are provided.

図2は、寝具提案システム1の手動入力部10における画面を模式的に示す図である。手動入力部10は、寝具提案システム1への操作及び入力を受け付ける機能要素である。寝具提案システム1への操作及び入力は、使用者によって行われてもよく、使用者に対して寝具を提案する提案者(例えば、販売員等、寝具の提供者又は寝具アドバイザー)によって行われてもよい。 FIG. 2 is a diagram schematically showing a screen in the manual input section 10 of the bedding proposal system 1. As shown in FIG. The manual input unit 10 is a functional element that receives operations and inputs to the bedding proposal system 1 . The operation and input to the bedding proposal system 1 may be performed by the user, or by a proposer who proposes bedding to the user (for example, a salesperson, a bedding provider, or a bedding advisor). good too.

例えば、情報端末2のディスプレイには、操作に応じて画面11,12,13が表示される。画面11は、寝具提案システム1の起動時に表示される画面の一例である。画面11には、スタートボタン11a及び寝姿勢チェックボタン11bが表示される。手動入力部10は、スタートボタン11a又は寝姿勢チェックボタン11bがタッチされる操作を受け付ける。スタートボタン11aがタッチされると、画面12が表示される。寝姿勢チェックボタン11bがタッチされると、後述する寝姿勢チェックの画面が表示される。 For example, screens 11, 12, and 13 are displayed on the display of the information terminal 2 according to the operation. A screen 11 is an example of a screen displayed when the bedding proposal system 1 is activated. The screen 11 displays a start button 11a and a sleeping posture check button 11b. The manual input unit 10 accepts an operation of touching the start button 11a or the sleeping posture check button 11b. When the start button 11a is touched, a screen 12 is displayed. When the sleeping posture check button 11b is touched, a sleeping posture check screen, which will be described later, is displayed.

画面12は、使用者自身の身長及び体重が入力される画面である。画面12には、身長入力部12a、体重入力部12b、及び次へボタン12cが表示される。本実施形態において、「次へボタン」とは、次へボタンが表示されている画面から別の画面に遷移するときに押されるボタンを示している。身長入力部12aには、使用者の身長が入力される。体重入力部12bには、使用者の体重が入力される。なお、体重入力部12bは省略されてもよい。すなわち、画面12には、身長入力部12a及び次へボタン12cが表示されてもよい。例えば、手動入力部10は、身長入力部12a及び体重入力部12bに入力された数値を受け付ける。次へボタン12cがタッチされると、画面13が表示される。 Screen 12 is a screen for inputting the user's own height and weight. The screen 12 displays a height input section 12a, a weight input section 12b, and a next button 12c. In the present embodiment, the “next button” indicates a button that is pressed when transitioning from the screen on which the next button is displayed to another screen. The height of the user is input to the height input section 12a. The body weight of the user is input to the body weight input section 12b. Note that the weight input unit 12b may be omitted. That is, the screen 12 may display a height input section 12a and a next button 12c. For example, the manual input unit 10 receives numerical values input to the height input unit 12a and the weight input unit 12b. When the next button 12c is touched, the screen 13 is displayed.

画面13は、使用者の寝姿勢、使用者が所望する寝具の硬さ、使用者が現在使用している寝具の使用年数、及び提案される寝具の種類が入力される画面である。画面13には、寝姿勢入力部13a、寝具の硬さ入力部13b、寝具の使用年数入力部13c、及び寝具の種類入力部13dが表示される。寝姿勢入力部13aには、仰向け寝、横向き寝及びうつ伏せ寝などの使用者の寝姿勢が入力される。例えば、仰向け寝、横向き寝及びうつ伏せ寝などの寝姿勢がプルダウンメニューとして表示され、このプルダウンメニューにおいて選択された寝姿勢が入力されてもよい。 The screen 13 is a screen for inputting the sleeping posture of the user, the hardness of the bedding desired by the user, the years of use of the bedding currently used by the user, and the type of bedding to be proposed. The screen 13 displays a sleeping posture input section 13a, a bedding hardness input section 13b, a bedding usage years input section 13c, and a bedding type input section 13d. The sleeping posture input unit 13a inputs the sleeping posture of the user, such as lying on the back, sleeping on the side, and sleeping on the stomach. For example, sleeping postures such as lying on your back, sleeping on your side, and sleeping on your stomach may be displayed as a pull-down menu, and the sleeping posture selected from this pull-down menu may be input.

寝具の硬さ入力部13bには、硬め、柔らかめ及び普通などの使用者が所望する寝具の硬さが入力される。例えば、硬め、柔らかめ及び普通という寝具の硬さを示す複数の記載がプルダウンメニューとして表示され、このプルダウンメニューにおいて選択された寝具の硬さが入力されてもよい。寝具の使用年数入力部13cには、使用者が現在使用している寝具の使用年数が入力される。寝具の種類入力部13dには、寝具提案システム1が提案する寝具の種類が入力される。例えば、マットレス、枕及びクッションなどの寝具の種類がプルダウンメニューとして表示され、このプルダウンメニューにおいて選択された寝具の種類が入力されてもよい。 In the bedding hardness input section 13b, the hardness of the bedding desired by the user, such as hard, soft, and normal, is input. For example, a pull-down menu may be displayed with a plurality of descriptions indicating firmness, softness, and medium firmness of the bedding, and the firmness of the selected bedding may be entered in the pull-down menu. The number of years of use of the bedding currently used by the user is input to the number of years of use of the bedding input section 13c. The type of bedding proposed by the bedding proposal system 1 is input to the bedding type input unit 13d. For example, bedding types such as mattresses, pillows, and cushions may be displayed as a pull-down menu, and the selected bedding type may be entered in this pull-down menu.

選択部20は、第1の位置情報取得部31及び第2の位置情報取得部32の何れか一方を使用者に選択させる機能要素である。本開示において、「第1の位置情報取得部」は撮影データから身体の各部の位置情報を取得し、「第2の位置情報取得部」は使用者に接触する測定器から身体の各部の位置情報を取得する。例えば、第1の位置情報取得部31が選択されると撮影による身体測定モードに移行し、第2の位置情報取得部32が選択されると測定器による身体測定モードに移行する。「使用者に選択させる」とは、使用者に選択するように促すことを示している。さらに「使用者に選択させる」とは、使用者に寝具を提案する提案者に選択を促すことを示していてもよい。 The selection unit 20 is a functional element that allows the user to select one of the first location information acquisition unit 31 and the second location information acquisition unit 32 . In the present disclosure, the "first position information acquisition unit" acquires the position information of each part of the body from the imaging data, and the "second position information acquisition unit" acquires the position of each part of the body from the measuring device that contacts the user. Get information. For example, when the first position information acquisition unit 31 is selected, the mode shifts to the body measurement mode by photographing, and when the second position information acquisition unit 32 is selected, the mode shifts to the body measurement mode by a measuring device. "Let the user select" means prompting the user to select. Furthermore, "allowing the user to select" may indicate prompting a proposer who proposes bedding to the user to select.

本実施形態では、画面13に、第1ボタン21及び第2ボタン22が表示される。一例として、第1ボタン21は次へボタンであり、第2ボタン22はスキップボタンである。本実施形態において、「スキップボタン」とは、特定の機能をスキップするときに押されるボタンである。例えば、第2ボタン22がタッチされると、使用者の身体の撮影がスキップされる。 In this embodiment, the screen 13 displays a first button 21 and a second button 22 . As an example, the first button 21 is a next button and the second button 22 is a skip button. In this embodiment, a "skip button" is a button that is pressed to skip a specific function. For example, when the second button 22 is touched, photography of the user's body is skipped.

第1ボタン21がタッチされると、第1の位置情報取得部31が選択される。第2ボタン22がタッチされると、第2の位置情報取得部32が選択される。寝具提案システム1は、第1の位置情報取得部31及び第2の位置情報取得部32のうち選択された一方によって、使用者の身体の位置情報を取得する。 When the first button 21 is touched, the first position information acquisition section 31 is selected. When the second button 22 is touched, the second position information acquisition section 32 is selected. The bedding proposal system 1 acquires position information of the user's body by one selected from the first position information acquisition section 31 and the second position information acquisition section 32 .

最初に、第1の位置情報取得部31が選択された場合について説明する。図3は、第1の位置情報取得部31において取得される使用者の身体Mの各部の位置情報の例を示す側面図である。第1の位置情報取得部31は、身体Mが撮影されることによって得られた撮影データから、身体Mの各部の位置情報を取得する機能要素である。一例として、第1の位置情報取得部31は、後述するマーク表示部、身体位置取得部、及びサイズ算出表示部を有する。 First, the case where the first positional information acquisition unit 31 is selected will be described. FIG. 3 is a side view showing an example of the position information of each part of the user's body M acquired by the first position information acquisition section 31. As shown in FIG. The first positional information acquisition unit 31 is a functional element that acquires positional information of each part of the body M from photographed data obtained by photographing the body M. As shown in FIG. As an example, the first positional information acquisition section 31 has a mark display section, a body position acquisition section, and a size calculation display section, which will be described later.

第1の位置情報取得部31が用いる撮影データは、例えば、撮影データ取得部33によって取得される。撮影データ取得部33は、身体Mの画像を取得する機能要素である。撮影データ取得部33は、例えば、カメラ、携帯端末、又は3Dスキャナによって撮影された身体Mの画像を撮影データとして取得する。本実施形態では、撮影データ取得部33は、情報端末2のカメラによって撮影された身体Mの画像を取得する。なお、撮影データ取得部33は、身体Mの後方に配置されたメモリRと共に撮影を行うことによって撮影データを取得してもよい。なお、撮影部は情報端末2のカメラに限定されない。例えば、撮影部は情報端末2とは別のカメラであってもよい。 The imaging data used by the first positional information acquisition unit 31 is acquired by the imaging data acquisition unit 33, for example. The photographed data acquisition unit 33 is a functional element that acquires an image of the body M. FIG. The photographed data acquisition unit 33 acquires, as photographed data, an image of the body M photographed by, for example, a camera, a mobile terminal, or a 3D scanner. In this embodiment, the photographed data acquisition unit 33 acquires an image of the body M photographed by the camera of the information terminal 2 . Note that the photographed data acquisition unit 33 may acquire the photographed data by photographing together with the memory R arranged behind the body M. FIG. Note that the imaging unit is not limited to the camera of the information terminal 2 . For example, the imaging unit may be a camera separate from the information terminal 2 .

第1の位置情報取得部31のマーク表示部は、撮影データ取得部33によって取得された撮影データと共に、身体Mの各部の位置を示すマークKを情報端末2のディスプレイに表示する。例えば、当該マーク表示部は、複数のマークKを身体Mの部位ごとに表示する。マークKは、例えば、情報端末2の画面に指で触れることによって移動可能とされており、マークKを移動することによって身体Mの部位を指定可能とされている。 The mark display unit of the first position information acquisition unit 31 displays the photographed data acquired by the photographed data acquisition unit 33 and the mark K indicating the position of each part of the body M on the display of the information terminal 2 . For example, the mark display unit displays a plurality of marks K for each part of the body M. FIG. The mark K can be moved by, for example, touching the screen of the information terminal 2 with a finger, and by moving the mark K, a part of the body M can be specified.

図3の例では、使用者の側面の撮影データに、使用者の頸椎M1、背中M2、腰M3、臀部M4、膝裏M5、及びかかとM6のそれぞれに対応する複数(一例として6つ)のマークKが表示される。例えば、寝具の提案者又は使用者によって、各マークKが撮影データ上の身体Mの各部(一例として頸椎M1、背中M2、腰M3、臀部M4、膝裏M5及びかかとM6のそれぞれの位置)に位置合わせされる。例えば、使用者の正面の撮影データに、使用者の耳の付け根、使用者の首、及び使用者の肩のそれぞれに対応する複数のマークKを表示してもよい。 In the example of FIG. 3, the image data of the side of the user includes a plurality of (six as an example) corresponding to the user's cervical vertebrae M1, back M2, waist M3, buttocks M4, backs of knees M5, and heels M6. Mark K is displayed. For example, the proponent or user of the bedding places each mark K on each part of the body M on the imaging data (for example, positions of the cervical spine M1, the back M2, the waist M3, the buttocks M4, the backs of the knees M5, and the heels M6). Aligned. For example, a plurality of marks K corresponding to the base of the user's ears, the user's neck, and the user's shoulders may be displayed in the photographed data of the front of the user.

第1の位置情報取得部31の身体位置取得部は、手動入力部10において入力された身長L(図4参照)、及び、撮影された身体Mから身体Mの各部の位置情報を取得する。例えば、当該身体位置取得部は、身長Lと、撮影データ上においてマークKが付された身体Mの位置とから当該各部の位置情報を取得する。すなわち、当該身体位置取得部は、撮影データ上で移動されたマークKの位置から当該各部の位置情報を取得する。 The body position acquisition unit of the first position information acquisition unit 31 acquires the position information of each part of the body M from the height L (see FIG. 4) input in the manual input unit 10 and the body M that is photographed. For example, the body position acquisition unit acquires the position information of each part from the height L and the position of the body M marked with the mark K on the photographed data. That is, the body position acquisition unit acquires the position information of each part from the position of the mark K moved on the photographed data.

図4は、取得された身体Mの各部の位置情報と寝具の情報とが示される画面を模式的に示す図である。第1の位置情報取得部31のサイズ算出表示部は、第1の位置情報取得部31の身体位置取得部によって取得された身体Mの各部の位置情報から身体Mの各部のサイズを表示する。 FIG. 4 is a diagram schematically showing a screen on which the acquired position information of each part of the body M and the information of bedding are shown. The size calculation display unit of the first position information acquisition unit 31 displays the size of each part of the body M based on the position information of each part of the body M acquired by the body position acquisition unit of the first position information acquisition unit 31 .

図4の例では、当該サイズ算出表示部は、頸椎M1から頭頂部M7までの高さL1、背中M2から頭頂部M7までの高さL2、腰M3から頭頂部M7までの高さL3、臀部M4から頭頂部M7までの高さL4、及び、膝裏M5から頭頂部M7までの高さL5を算出する。例えば、当該サイズ算出表示部は、算出した高さL1~L5、後述する背面位置W1~W6、及び側面位置B1,B2が示されたシルエット画像を生成する。当該サイズ算出表示部は、生成されたシルエット画像を情報端末2のディスプレイに表示する。本実施形態において、「背面位置」とは、身体Mの各部の前後方向の位置を示しており、例えば、身体Mの前後方向における各部の突出具合及び窪み具合を示している。本実施形態において、「側面位置」とは、身体Mの各部の側面方向の位置を示しており、例えば、身体Mの側面方向における各部の突出具合及び窪み具合を示している。 In the example of FIG. 4, the size calculation display section includes the height L1 from the cervical spine M1 to the top of the head M7, the height L2 from the back M2 to the top of the head M7, the height L3 from the waist M3 to the top of the head M7, and the buttocks. A height L4 from M4 to the top of the head M7 and a height L5 from the back of the knee M5 to the top of the head M7 are calculated. For example, the size calculation display section generates a silhouette image showing the calculated heights L1 to L5, rear positions W1 to W6 (to be described later), and side positions B1 and B2. The size calculation display section displays the generated silhouette image on the display of the information terminal 2 . In this embodiment, the "back position" indicates the position of each part of the body M in the front-rear direction, for example, the degree of protrusion and recession of each part in the front-rear direction of the body M. In the present embodiment, the "lateral position" indicates the position of each part of the body M in the lateral direction, and indicates, for example, how each part protrudes and dents in the lateral direction of the body M. As shown in FIG.

手動入力部10において入力された身長Lの値は、撮影データ上におけるかかとM6から頭頂部M7までの高さに相当する。前述した高さL1~L5及び背面位置W1~W6のそれぞれの値は、入力された身長Lに対する比率から算出される。一例として、図2の身長入力部12aにおいて身長Lが170cmと入力され、撮影データ上における身長Lに対する高さL4の比率が0.5であった場合、臀部M4から頭頂部M7までの高さL4は85cmと算出される。このように、入力された身長Lに対する比率から高さL1~L5及び背面位置W1~W6が求められるので、高さL1~L5及び背面位置W1~W6のそれぞれの値を高精度に取得できる。 The height L value input in the manual input unit 10 corresponds to the height from the heel M6 to the top of the head M7 on the photographed data. The values of the heights L1 to L5 and the back positions W1 to W6 described above are calculated from the ratios to the input height L. FIG. As an example, when a height L of 170 cm is input in the height input unit 12a of FIG. L4 is calculated as 85 cm. In this way, the heights L1 to L5 and the back positions W1 to W6 are obtained from the input ratio to the height L, so that the values of the heights L1 to L5 and the back positions W1 to W6 can be obtained with high accuracy.

第1の位置情報取得部31のサイズ算出表示部は、頸椎M1の背面位置W1、背中M2の背面位置W2、腰M3の背面位置W3、臀部M4の背面位置W4、膝裏M5の背面位置W5、及びかかとM6の背面位置W6、の少なくともいずれかを算出してもよい。さらに当該サイズ算出表示部は、使用者の耳の付け根から肩までの側面位置B1、及び使用者の首から肩までの側面位置B2の少なくとも何れかを算出してもよい。例えば、図4に示されるように、肩の位置を基準とした、耳の付け根の位置(側面位置B1)と、首の左右方向端部の位置(側面位置B2)とを算出してもよい。 The size calculation display unit of the first position information acquisition unit 31 includes the back position W1 of the cervical spine M1, the back position W2 of the back M2, the back position W3 of the waist M3, the back position W4 of the buttocks M4, and the back position W5 of the back of the knee M5. , and the rear surface position W6 of the heel M6 may be calculated. Further, the size calculation display unit may calculate at least one of the side position B1 from the base of the user's ear to the shoulder and the side position B2 from the neck to the shoulder of the user. For example, as shown in FIG. 4, the position of the base of the ear (lateral position B1) and the position of the lateral end of the neck (lateral position B2) may be calculated with reference to the position of the shoulder. .

一般的に、頸椎M1及び腰M3のそれぞれは背中M2に対して身体Mの前側に窪んでおり、臀部M4は腰M3から身体Mの後側に突出している。膝裏M5は臀部M4から前側に窪んでおり、かかとM6は膝裏M5から身体Mの後側に突出している場合がある。図4では、背面位置W4の値を0としたときにおける背面位置W1,W2,W3,W5,W6のそれぞれの値が正である例を示している。すなわち、図4の例では、背面位置W1,W2,W3,W5,W6は、背面位置W4に対する身体Mの前側への窪み具合を示している。しかしながら、背面位置W1~W6の表示方法は適宜変更可能である。 In general, each of the cervical vertebrae M1 and the waist M3 is recessed forward of the body M with respect to the back M2, and the buttocks M4 protrude rearward of the body M from the waist M3. The back of the knee M5 is recessed forward from the buttocks M4, and the heel M6 may protrude rearward of the body M from the back of the knee M5. FIG. 4 shows an example in which the values of the back positions W1, W2, W3, W5, and W6 are positive when the value of the back position W4 is 0. In FIG. That is, in the example of FIG. 4, the back positions W1, W2, W3, W5, and W6 indicate how the body M is depressed forward with respect to the back position W4. However, the display method of the back positions W1 to W6 can be changed as appropriate.

次に、第2の位置情報取得部32が選択された場合について説明する。図5は、第2の位置情報取得部32において取得される身体Mの各部の位置情報の例を示す側面図である。第2の位置情報取得部32は、使用者に接触する測定器3から身体Mの各部の位置情報を取得する機能要素である。一例として、測定器3は、支持柱3a、変位測定部3b及び識別コード表示部3cを備える。 Next, a case where the second positional information acquisition unit 32 is selected will be described. FIG. 5 is a side view showing an example of the positional information of each part of the body M acquired by the second positional information acquiring section 32. As shown in FIG. The second positional information acquisition unit 32 is a functional element that acquires positional information of each part of the body M from the measuring instrument 3 in contact with the user. As an example, the measuring device 3 includes a support column 3a, a displacement measuring section 3b, and an identification code display section 3c.

支持柱3aは、例えば、鉛直方向に延在する柱状を呈する。支持柱3aの高さは、例えば、一般的な使用者の身長よりも高い。一例として、支持柱3aの高さは2.0mである。支持柱3aは、変位測定部3bを鉛直方向に移動可能に支持する。変位測定部3bは、寝具を使用者に提案する提案者によって移動されてもよい。測定器3は、変位測定部3bを移動させる駆動部を備えていてもよい。変位測定部3bは、自重で下方に向かって移動してもよい。 The support column 3a has, for example, a columnar shape extending in the vertical direction. The height of the support column 3a is, for example, higher than the height of a typical user. As an example, the height of the support column 3a is 2.0 m. The support column 3a supports the displacement measuring part 3b so as to be movable in the vertical direction. The displacement measuring part 3b may be moved by a proposer who proposes bedding to the user. The measuring instrument 3 may include a driving section that moves the displacement measuring section 3b. The displacement measuring part 3b may move downward under its own weight.

変位測定部3bは、例えば、支持柱3aから水平方向に延在する棒状を呈する。変位測定部3bの先端には、使用者の身体Mの各部に接触する接触子(例えば図5における円形状の部分)が設けられる。接触子は、例えば、ローラ状を呈する。接触子は、例えば、測定器3によって測定される使用者の身体Mの左右方向(図5の紙面に直交する方向)に沿って延在する軸を中心として回転可能とされている。 The displacement measuring part 3b has, for example, a rod shape extending horizontally from the support column 3a. A contact (for example, a circular portion in FIG. 5) that contacts each part of the user's body M is provided at the tip of the displacement measuring part 3b. The contact has, for example, a roller shape. The contactor is rotatable about an axis extending in the left-right direction of the user's body M measured by the measuring device 3 (direction perpendicular to the plane of FIG. 5), for example.

変位測定部3bは、支持柱3aに対して水平方向にスライド自在とされている。変位測定部3bは、接触子が使用者の身体Mに押し付けられるように水平方向にスライドされる。変位測定部3bは、提案者によって水平方向にスライドされてもよい。測定器3は、変位測定部3bを水平方向にスライドさせる駆動部を備えていてもよい。変位測定部3bは、例えば、頸椎M1からかかとM6まで、使用者の背面を接触子がなぞるように操作される。すなわち、変位測定部3bの接触子は、使用者の身体Mの表面形状に沿って鉛直方向及び水平方向に移動する。なお、変位測定部3bは、使用者の耳の付け根、使用者の首、及び使用者の肩などの使用者の側面を接触子がなぞるように操作されてもよい。 The displacement measuring portion 3b is horizontally slidable with respect to the support column 3a. The displacement measuring part 3b is horizontally slid so that the contact is pressed against the body M of the user. The displacement measuring part 3b may be slid horizontally by the proposer. The measuring instrument 3 may include a driving section for horizontally sliding the displacement measuring section 3b. The displacement measuring unit 3b is operated such that the contactor traces the user's back surface from the cervical spine M1 to the heel M6, for example. That is, the contactor of the displacement measuring part 3b moves along the surface shape of the user's body M in the vertical and horizontal directions. In addition, the displacement measuring part 3b may be operated so that the contact traces the user's side surface such as the base of the user's ear, the user's neck, and the user's shoulder.

変位測定部3bは、支持柱3aにおける鉛直方向の変位と、接触子の水平方向の変位を測定する。一例として、変位測定部3bは、第1の検出器と、第2の検出器と、位置情報設定部とを有する。第1の検出器は、支持柱3aにおける鉛直方向の変位を測定する。第2の検出器は、接触子の水平方向の変位を測定する。第1の検出器と第2の検出器とが同時に各変位(鉛直方向の変位及び水平方向の変位)を測定することで、第1の検出器及び第2の検出器は、鉛直方向の変位及び水平方向の変位を含む身体Mの連続的な形状(身体Mの表面形状)を測定する。位置情報設定部は、身体Mの連続的な形状の所定の位置に対して、身体Mの各部(一例として頸椎M1、背中M2、腰M3、臀部M4、膝裏M5及びかかとM6のそれぞれの位置)の位置を対応付けて身体Mの各部の位置を設定する。 The displacement measuring unit 3b measures the vertical displacement of the support column 3a and the horizontal displacement of the contact. As an example, the displacement measuring section 3b has a first detector, a second detector, and a position information setting section. A first detector measures the vertical displacement in the support column 3a. A second detector measures the horizontal displacement of the contact. The first detector and the second detector simultaneously measure each displacement (vertical displacement and horizontal displacement), so that the first detector and the second detector measure the vertical displacement and the continuous shape of the body M including horizontal displacement (the surface shape of the body M). The position information setting unit sets each part of the body M (for example, the positions of the cervical spine M1, the back M2, the waist M3, the buttocks M4, the backs of the knees M5, and the heels M6) to predetermined positions of the continuous shape of the body M. ) are associated with each other, and the positions of each part of the body M are set.

例えば、変位測定部3bには押しボタンが設けられている。当該押しボタンは、例えば、変位測定部3bを操作する提案者によって押される。変位測定部3bが身体Mの所定の位置に接触した状態で当該押しボタンが押されると、当該所定の位置が上述した身体Mの各部を示す位置として設定される。具体例として、変位測定部3bが頸椎M1に接触した状態で当該押しボタンが押されると、測定された鉛直方向の変位及び水平方向の変位に頸椎M1の位置が対応付けられる。例えば、変位測定部3bは、鉛直方向の変位及び水平方向の変位を含む身体Mの連続的な形状と、身体Mの各部の位置を示す情報とをテーブルデータ形式で記録する。 For example, the displacement measuring section 3b is provided with a push button. The push button is pushed, for example, by the proposer who operates the displacement measuring unit 3b. When the push button is pressed while the displacement measuring unit 3b is in contact with a predetermined position of the body M, the predetermined position is set as a position indicating each part of the body M described above. As a specific example, when the push button is pressed while the displacement measuring unit 3b is in contact with the cervical spine M1, the measured vertical displacement and horizontal displacement are associated with the position of the cervical spine M1. For example, the displacement measuring unit 3b records the continuous shape of the body M including vertical displacement and horizontal displacement, and information indicating the position of each part of the body M in the form of table data.

一例として、頸椎M1からかかとM6まで、使用者の背面を接触子がなぞるように変位測定部3bが操作されるとき、頸椎M1からかかとM6までの連続的な身体Mの形状と、身体Mの各部(一例として頸椎M1、背中M2、腰M3、臀部M4、膝裏M5及びかかとM6のそれぞれの位置)の高さ及び背面位置が測定される。 As an example, when the displacement measuring unit 3b is operated so that the contactor traces the back of the user from the cervical spine M1 to the heel M6, the continuous shape of the body M from the cervical spine M1 to the heel M6 and the shape of the body M The height and back position of each part (for example, the positions of the cervical vertebrae M1, the back M2, the waist M3, the buttocks M4, the backs of the knees M5, and the heels M6) are measured.

第2の位置情報取得部32は、測定器3から身体Mの各部の位置情報を取得する。本実施形態では、識別コード表示部3cがディスプレイ等の画面に表示した識別コードを撮影データ取得部33が取得する。第2の位置情報取得部32は、撮影データ取得部33が取得した識別コードから、身体Mの各部の位置情報を取得する。例えば、識別コードは、二次元バーコード(一例としてQRコード(登録商標))を含むバーコード、文字、数値及び記号など、測定器3によって測定された結果を識別するための識別子である。 A second positional information acquiring unit 32 acquires positional information of each part of the body M from the measuring device 3 . In this embodiment, the photographed data obtaining section 33 obtains the identification code displayed on the screen such as the display by the identification code display section 3c. The second position information acquisition unit 32 acquires position information of each part of the body M from the identification code acquired by the photographed data acquisition unit 33 . For example, the identification code is an identifier for identifying the results measured by the measuring device 3, such as barcodes including two-dimensional barcodes (QR code (registered trademark) as an example), characters, numbers and symbols.

例えば、測定器3の測定結果は、当該識別コードに含まれている。なお、測定器3によって測定された結果は、サーバなど測定器3の外部機器に保存され、識別コードに含まれなくてもよい。この場合、識別コードは当該外部機器へのリンクを含んでおり、第2の位置情報取得部32は、当該外部機器から測定器3の測定結果をダウンロードしてもよい。 For example, the measurement result of the measuring device 3 is included in the identification code. It should be noted that the results measured by the measuring device 3 are stored in an external device of the measuring device 3, such as a server, and may not be included in the identification code. In this case, the identification code includes a link to the external device, and the second location information acquisition unit 32 may download the measurement result of the measuring device 3 from the external device.

第2の位置情報取得部32は、サイズ算出表示部を有してもよい。当該サイズ算出表示部は、第2の位置情報取得部32によって取得された身体Mの各部の位置情報から当該各部のサイズを表示する。前述と同様、図4に示されるように、第2の位置情報取得部32のサイズ算出表示部は、頸椎M1から頭頂部M7までの高さL1、背中M2から頭頂部M7までの高さL2、腰M3から頭頂部M7までの高さL3、臀部M4から頭頂部M7までの高さL4、及び、膝裏M5から頭頂部M7までの高さL5を算出する。前述した高さL1~L5、背面位置W1~W6及び側面位置B1,B2のそれぞれの値は、測定器3の測定結果から算出される。当該サイズ算出表示部は、算出した高さL1~L5、後述する背面位置W1~W6、及び側面位置B1,B2が示されたシルエット画像を生成する。当該サイズ算出表示部は、生成されたシルエット画像を情報端末2のディスプレイに表示する。 The second position information acquisition section 32 may have a size calculation display section. The size calculation display unit displays the size of each part of the body M based on the position information of each part of the body M acquired by the second position information acquisition part 32 . As described above, as shown in FIG. 4, the size calculation display section of the second positional information acquisition section 32 displays the height L1 from the cervical spine M1 to the top of the head M7 and the height L2 from the back M2 to the top of the head M7. , the height L3 from the waist M3 to the top of the head M7, the height L4 from the buttocks M4 to the top of the head M7, and the height L5 from the back of the knee M5 to the top of the head M7 are calculated. The values of the heights L1 to L5, the back positions W1 to W6, and the side positions B1 and B2 are calculated from the measurement results of the measuring device 3. FIG. The size calculation display section generates a silhouette image showing the calculated heights L1 to L5, rear positions W1 to W6 (to be described later), and side positions B1 and B2. The size calculation display section displays the generated silhouette image on the display of the information terminal 2 .

寝具情報表示部40は、例えば、寝具P1,P2,P3及び寝具T1,T2,T3の情報を表示する。本実施形態において、第1の寝具及び第2の寝具は、寝具P1,P2,P3及び寝具T1,T2,T3に含まれる何れか2つの寝具である。一例として、寝具P1,P2,P3は枕を示し、寝具T1,T2,T3はマットレスを示す。使用者は、寝具P1,P2,P3及び寝具T1,T2,T3の何れか1つをタッチすることにより各寝具を選択可能である。寝具P1,P2,P3及び寝具T1,T2,T3の何れかが選択された後の寝具提案システム1の動作については後述する。 The bedding information display unit 40 displays information on, for example, beddings P1, P2, P3 and beddings T1, T2, T3. In this embodiment, the first bedding and the second bedding are any two beddings included in beddings P1, P2, P3 and beddings T1, T2, T3. As an example, beddings P1, P2, P3 indicate pillows, and beddings T1, T2, T3 indicate mattresses. The user can select each bedding by touching any one of bedding P1, P2, P3 and bedding T1, T2, T3. The operation of the bedding proposal system 1 after any one of the bedding P1, P2, P3 and the bedding T1, T2, T3 is selected will be described later.

体型パターン判定部71は、例えば、第1の位置情報取得部31又は第2の位置情報取得部32のいずれかによって取得された身体Mの各部の位置情報から使用者の体型を判定する。体型パターン表示部72は、体型パターン判定部71によって判定された体型を表示する。また、体型パターン判定部71は、各サイズ算出表示部(すなわち、第1の位置情報取得部31のサイズ算出表示部、又は第2の位置情報取得部32のサイズ算出表示部)によって生成されたシルエット画像から使用者の体型を判定してもよい。 The figure pattern determination unit 71 determines the figure of the user from the position information of each part of the body M acquired by either the first position information acquisition unit 31 or the second position information acquisition unit 32, for example. The body pattern display section 72 displays the body type determined by the body pattern determination section 71 . In addition, the body pattern determination unit 71 has a The body type of the user may be determined from the silhouette image.

図6の(a)~(f)は、判定される体型パターンの例(Aタイプ~Fタイプ)を示している。図6の(a)~(f)に示されるように、Aタイプは、Wラインタイプの体型であり、背中M2、腰M3及び臀部M4のそれぞれの曲率が所定値以上である体型を示している。Bタイプは、Sラインタイプの体型であり、背中M2及び臀部M4が腰M3より突出するものの背中M2、腰M3及び臀部M4のそれぞれの曲率が所定値以上でない体型を示している。 (a) to (f) of FIG. 6 show examples of determined figure patterns (A type to F type). As shown in (a) to (f) of FIG. 6, the A type is a W-line type body shape, in which the curvatures of the back M2, the waist M3, and the buttocks M4 are each greater than or equal to a predetermined value. there is Type B is an S-line body type, in which the back M2 and buttocks M4 protrude beyond the waist M3, but the curvatures of the back M2, waist M3, and buttocks M4 are not greater than a predetermined value.

Cタイプは、背出タイプの体型であり、背中M2が臀部M4よりも突出する体型を示している。Dタイプは、ヒップタイプの体型であり、臀部M4が背中M2よりも突出する体型を示している。Eタイプは、フラットタイプの体型であり、背中M2の曲率、腰M3の曲率、及び臀部M4の曲率が所定値未満である体型を示している。Fタイプは、丸背タイプであり、背中M2及び臀部M4よりも腰M3が突出している体型を示している。 The C type is a body type with the back exposed, and indicates a body type in which the back M2 protrudes more than the buttocks M4. The D type is a hip-type figure, and indicates a figure in which the buttocks M4 protrude more than the back M2. The E type is a flat body type, and indicates a body type in which the curvature of the back M2, the curvature of the waist M3, and the curvature of the buttocks M4 are less than predetermined values. The F type is a round back type, and indicates a body shape in which the waist M3 protrudes from the back M2 and the buttocks M4.

例えば、体型パターン判定部71は、身体MがAタイプ~Fタイプのどのタイプであるかを判定し、体型パターン表示部72は体型パターン判定部71によって判定された判定結果を情報端末2のディスプレイに表示する。なお、体型パターン判定部71が判定する体型パターンの種類は、上記のAタイプ~Fタイプに限られず適宜変更可能である。 For example, the body pattern determination unit 71 determines which type of the body M is type A to F, and the body pattern display unit 72 displays the determination result determined by the body pattern determination unit 71 on the display of the information terminal 2. to display. The type of body pattern determined by the body pattern determination unit 71 is not limited to the above-described A type to F type, and can be changed as appropriate.

以下では、図4に示される画面においてマットレス(寝具T3)が選択された後の寝具提案システム1の動作について説明する。図7は、身体Mの各部の形状を示す形状データCとマットレスの内容データFとが示される画面の例を模式的に示す図である。本実施形態では、形状データCは、寝具の内容データFと併せて同じ画面に表示される。 Below, operation|movement of the bedding proposal system 1 after a mattress (bedding T3) is selected in the screen shown by FIG. 4 is demonstrated. FIG. 7 is a diagram schematically showing an example of a screen on which shape data C indicating the shape of each part of the body M and content data F of the mattress are displayed. In this embodiment, the shape data C is displayed on the same screen together with the content data F of bedding.

形状データ算出部61は、身体Mの各部の位置情報から身体Mの各部の形状を示す形状データCを算出する。形状データCは、例えば、身体Mの連続的な背面位置の変化を示す曲線である。すなわち、形状データCは、使用者の背面の形状の測定結果を示している。身体Mの各部の位置情報が第1の位置情報取得部31から取得された場合には、形状データ算出部61は、身体Mの各部M1~M5が連続するように曲線を生成する。身体Mの各部の位置情報が第2の位置情報取得部32から取得された場合には、形状データ算出部61は、測定器3の変位測定部3bが使用者の背面をなぞるように測定して得られた身体Mの連続的な形状から曲線を生成する。 The shape data calculator 61 calculates shape data C representing the shape of each part of the body M from the position information of each part of the body M. FIG. The shape data C is, for example, a curve representing continuous changes in back position of the body M. FIG. That is, the shape data C indicates the measurement result of the shape of the user's back. When the position information of each part of the body M is obtained from the first position information obtaining part 31, the shape data calculation part 61 generates a curve so that the parts M1 to M5 of the body M are continuous. When the positional information of each part of the body M is acquired from the second positional information acquiring section 32, the shape data calculating section 61 causes the displacement measuring section 3b of the measuring device 3 to measure the back of the user. A curve is generated from the continuous shape of the body M obtained by

形状データ表示部62は、例えば、形状データCを情報端末2のディスプレイに表示する。形状データ表示部62は、高さL1~L5及び背面位置W1~W5を表示してもよい。一例として、形状データCは、使用者の高さ方向のメモリLRと、使用者の前後方向のメモリWRとが示された方眼上に表示される。この場合、メモリLR及びメモリWRが示された方眼上に、前述した高さL1~L5、及び背面位置W1~W5の少なくともいずれかが表示されてもよい。 The shape data display unit 62 displays the shape data C on the display of the information terminal 2, for example. The shape data display section 62 may display heights L1 to L5 and back positions W1 to W5. As an example, the shape data C is displayed on a grid in which a memory LR in the height direction of the user and a memory WR in the front-rear direction of the user are shown. In this case, at least one of the above-described heights L1 to L5 and rear positions W1 to W5 may be displayed on the grid on which the memory LR and memory WR are displayed.

内容データ算出部51は、第1の位置情報取得部31及び第2の位置情報取得部32のうち使用者によって選択された一方から寝具の内容データを算出する。以下では、マットレス(一例として寝具T3)が選択され、第2の位置情報取得部32によって取得された位置情報からマットレスの内容データを算出する例を説明する。内容データ算出部51によって算出された内容データは、内容データ表示部52によって情報端末2のディスプレイに表示される。 The content data calculation unit 51 calculates the content data of bedding from one of the first position information acquisition unit 31 and the second position information acquisition unit 32 selected by the user. Below, an example in which a mattress (bedding T3 as an example) is selected and the content data of the mattress is calculated from the position information acquired by the second position information acquisition unit 32 will be described. The content data calculated by the content data calculation unit 51 is displayed on the display of the information terminal 2 by the content data display unit 52 .

例えば、内容データ算出部51は、各サイズ算出表示部(前述した第1の位置情報取得部31又は第2の位置情報取得部32のサイズ算出表示部)によって生成されたシルエット画像からマットレスの内容データを算出してもよい。内容データ算出部51は、形状データ算出部61によって算出された形状データCからマットレスの内容データを算出してもよい。また、内容データ算出部51は、体型パターン判定部71によって判定された体型パターンからマットレスの内容データを算出してもよい。 For example, the content data calculation unit 51 calculates the content of the mattress from the silhouette image generated by each size calculation display unit (the size calculation display unit of the first position information acquisition unit 31 or the second position information acquisition unit 32 described above). Data may be calculated. The content data calculator 51 may calculate the content data of the mattress from the shape data C calculated by the shape data calculator 61 . Further, the content data calculation unit 51 may calculate the content data of the mattress from the figure pattern determined by the figure pattern determination unit 71 .

内容データ算出部51は、手動入力部10で入力された情報(すなわち、身長、体重、寝姿勢、寝具の硬さ、及び寝具の種類)から内容データを算出してもよい。内容データ算出部51は、上述した、シルエット画像、形状データC、体型パターン、及び手動入力部10で入力された情報のうち何れかを組み合わせて内容データを算出してもよい。このように、内容データを算出する基となるデータの種類は適宜変更可能である。 The content data calculation unit 51 may calculate the content data from the information (that is, height, weight, sleeping posture, hardness of bedding, and type of bedding) input by the manual input unit 10 . The content data calculation unit 51 may calculate the content data by combining any one of the silhouette image, the shape data C, the body pattern, and the information input by the manual input unit 10 described above. In this way, the type of data used as the basis for calculating content data can be changed as appropriate.

一例として、図7に示される内容データFは、マットレスの側断面を模式的に示すマットレス模式図F1と、パッド挿入要否表F2とを含んでいる。マットレス模式図F1には、例えば、使用者が使用するマットレスと、マットレスの硬さを調整可能なパーツとが模式的に示される。パッド挿入要否表F2には、例えば、パッドの挿入の要否が表示される。パッドとは、マットレスに形成された隙間に挿入される部材を示している。当該マットレスの高さは、パッドが挿入されることで調整可能である。但し、この内容データFの表示は一例であって適宜変更可能である。 As an example, the content data F shown in FIG. 7 includes a mattress schematic diagram F1 schematically showing a side cross section of the mattress and a pad insertion necessity table F2. The mattress schematic diagram F1 schematically shows, for example, a mattress used by a user and parts capable of adjusting the hardness of the mattress. In the pad insertion necessity table F2, for example, the necessity of pad insertion is displayed. A pad indicates a member that is inserted into a gap formed in the mattress. The height of the mattress is adjustable by inserting pads. However, the display of this content data F is an example and can be changed as appropriate.

図7の例では、マットレス模式図F1には、使用者の頭部側から脚側に向かって複数(例えば20)の領域に分割され、更にマットレスの厚さ方向にトップ層及びベース層に複数分割(例えば2分割)された、複数(例えば40)の領域を含むマットレスの側断面が模式的に表示される。マットレスのトップ層の領域には、a~fのパーツの何れかが配置される。a~fのパーツの硬さは、aからfにかけて段階的に硬くなる。マットレスのベース層の領域には、A~Fのパーツの何れかが配置される。A~Fのパーツの硬さは、AからFにかけて段階的に硬くなる。 In the example of FIG. 7, the mattress schematic diagram F1 is divided into a plurality of regions (for example, 20) from the head side to the leg side of the user, and a plurality of top layers and base layers in the thickness direction of the mattress. A side cross-section of a mattress including multiple (eg, 40) divided (eg, bisected) regions is schematically displayed. In the area of the top layer of the mattress, any of the parts af is placed. The hardness of the parts a to f becomes progressively harder from a to f. Any of the parts AF are placed in the area of the base layer of the mattress. The hardness of parts A to F increases in stages from A to F.

パッド挿入要否表F2には、使用者の頭部側から脚側に向かって複数(例えば20)の領域に分割され、更にマットレスの厚さ方向に複数分割(例えば3分割)された、複数(例えば60)の領域を含むマットレスの側断面図が模式的に表示される。パッド挿入要否表F2では、例えば、挿入要の領域に「○」が付され、挿入不要の領域に「○」が付されない。 The pad insertion necessity table F2 includes a plurality of regions (for example, 20) divided from the head side to the leg side of the user, and further divided into a plurality (for example, 3) in the thickness direction of the mattress. A cross-sectional side view of the mattress including area (eg 60) is schematically displayed. In the pad insertion necessity table F2, for example, areas that require insertion are marked with "o" and areas that do not need to be inserted are marked with "o".

以上のように内容データ表示部52がマットレスの内容データを情報端末2のディスプレイに表示することによって使用者が自身に適したマットレスを一目で把握することができる。本実施形態では、寝具の内容データは、形状データCと併せて同じ画面に表示されるので、使用者は、自身に適したマットレスを容易に把握することができる。しかしながら、情報端末2のディスプレイに表示されるマットレスの内容データの詳細は、図7の例に限られず適宜変更可能である。 As described above, the content data display unit 52 displays the content data of the mattress on the display of the information terminal 2, so that the user can grasp the mattress suitable for him/herself at a glance. In this embodiment, since the content data of the bedding is displayed on the same screen together with the shape data C, the user can easily grasp the mattress suitable for him/herself. However, the details of the content data of the mattress displayed on the display of the information terminal 2 are not limited to the example of FIG. 7 and can be changed as appropriate.

図8は、使用者の寝姿勢を撮影した寝姿勢データNの例を示す図である。撮影データ取得部33は、使用者の寝姿勢が撮影されることによって得られた寝姿勢データNを取得する。例えば、提案者がマットレスを用意して、提案者が情報端末2のカメラでマットレスに寝た使用者の寝姿勢を撮影することで寝姿勢データNは取得される。 FIG. 8 is a diagram showing an example of sleeping posture data N obtained by photographing the sleeping posture of the user. The imaging data acquisition unit 33 acquires sleeping posture data N obtained by imaging the sleeping posture of the user. For example, the proposer prepares a mattress, and the proposer captures the sleeping posture of the user lying on the mattress with the camera of the information terminal 2, thereby acquiring the sleeping posture data N.

形状データ表示部62は、寝姿勢データNと形状データCとを重ねて表示してもよい。体型パターン表示部は、体型パターンを示すシルエットSと寝姿勢データNとを重ねて表示してもよい。図8は、一例として、シルエットSと寝姿勢データNとを重ねて表示する場合を示している。図8では、一例として、模擬的なマットレスD1及び枕D2が寝姿勢データNに重ねて表示される。模擬的なマットレスD1及び枕D2は、例えば、情報端末2のディスプレイ上におけるタップ又はカーソル操作によって移動可能とされている。寝姿勢データNにおいて、模擬的なマットレスD1は、使用者の操作(例えば上記のタップ又はカーソル操作)によって身体Mの背面と接する位置に調整されてもよい。寝姿勢データNにおいて、模擬的な枕D2は、使用者の操作によって身体Mの後頭部と接する位置に調整されてもよい。このように、模擬的なマットレスD1及び枕D2を移動させる操作を行えるので、使用者は、マットレスD1及び枕D2に対する身体Mの位置関係を視覚的に把握できる。 The shape data display section 62 may display the sleeping posture data N and the shape data C in an overlapping manner. The body pattern display section may display the silhouette S representing the body pattern and the sleeping posture data N in an overlapping manner. FIG. 8 shows, as an example, a case where the silhouette S and the sleeping posture data N are superimposed and displayed. In FIG. 8, a simulated mattress D1 and a pillow D2 are displayed superimposed on the sleeping posture data N as an example. The simulated mattress D1 and pillow D2 can be moved by tapping or cursor operation on the display of the information terminal 2, for example. In the sleeping posture data N, the simulated mattress D1 may be adjusted to a position in contact with the back surface of the body M by the user's operation (eg, tapping or cursor operation described above). In the sleeping posture data N, the simulated pillow D2 may be adjusted to a position in contact with the back of the body M by the user's operation. In this way, since the simulated mattress D1 and pillow D2 can be moved, the user can visually grasp the positional relationship of the body M with respect to the mattress D1 and pillow D2.

次に、図4に示される画面において枕(一例として寝具P3)が選択された後の寝具提案システム1の動作について説明する。以下では、一例として、第2の位置情報取得部32によって取得された位置情報から枕の内容データを算出する例を説明する。なお、後述する枕の例は、前述したマットレスの例の一部と重複するため、重複する説明を適宜省略する。 Next, the operation of the bedding proposal system 1 after a pillow (bedding P3 as an example) is selected on the screen shown in FIG. 4 will be described. Below, as an example, an example of calculating content data of a pillow from position information acquired by the second position information acquisition unit 32 will be described. In addition, since the example of the pillow to be described later partially overlaps with the example of the mattress described above, redundant description will be omitted as appropriate.

図9に示されるように、各サイズ算出表示部(前述した第1の位置情報取得部31又は第2の位置情報取得部32のサイズ算出表示部)は、頸椎M1から後頭部M8の高さL6、後頭部M8の背面位置X1、頸椎M1の背面位置X2、及び側面位置B1,B2(図4参照)を算出する。背面位置X1,X2は、例えば、背面位置W2(図4参照)の値を0としたときにおける背面位置を示している。 As shown in FIG. 9, each size calculation display unit (the size calculation display unit of the first positional information acquisition unit 31 or the second positional information acquisition unit 32 described above) has a height L6 from the cervical spine M1 to the back of the head M8. , the back position X1 of the occipital region M8, the back position X2 of the cervical spine M1, and the side positions B1 and B2 (see FIG. 4). The back positions X1 and X2 indicate back positions when the value of the back position W2 (see FIG. 4) is set to 0, for example.

なお、各サイズ算出表示部は、高さL6、背面位置X1,X2、及び側面位置B1,B2の少なくともいずれかを算出しなくてもよい。一般的に、頸椎M1は背中M2及び後頭部M8に対して身体Mの前側に窪んでいる。各サイズ算出表示部は、算出した高さL6、背面位置X1,X2、及び側面位置B1,B2を、例えば、情報端末2のディスプレイに表示してもよい。 Note that each size calculation display unit does not need to calculate at least one of the height L6, the back positions X1 and X2, and the side positions B1 and B2. Generally, the cervical spine M1 is recessed anteriorly of the body M with respect to the back M2 and the occiput M8. Each size calculation display unit may display the calculated height L6, back positions X1 and X2, and side positions B1 and B2 on the display of the information terminal 2, for example.

図10は、枕の内容データF3を示す画面80を模式的に示す図である。内容データ算出部51によって算出された枕の内容データF3は、例えば、内容データ表示部52によって情報端末2のディスプレイに表示される。画面80には、内容データF3を算出するための要素である寝姿勢81、首タイプ82、敷き寝具沈み込み83と、算出された内容データF3であるベース層84、素材入力部85、及び入れ目表86が表示される。なお、画面80において、寝姿勢81、首タイプ82、敷き寝具沈み込み83、ベース層84、素材入力部85、及び入れ目表86に表示されるデータは、使用者によって変更可能であってもよい。 FIG. 10 is a diagram schematically showing a screen 80 showing pillow content data F3. The content data F3 of the pillow calculated by the content data calculation unit 51 is displayed on the display of the information terminal 2 by the content data display unit 52, for example. The screen 80 displays the sleeping posture 81, the neck type 82, and the bedding sinking 83, which are elements for calculating the content data F3, the base layer 84, the material input section 85, and the input section 85, which are the calculated content data F3. A table of contents 86 is displayed. Note that the data displayed on the screen 80 in the sleeping posture 81, neck type 82, bedding sinking 83, base layer 84, material input section 85, and stitch table 86 may be changed by the user. good.

寝姿勢81には、図2の寝姿勢入力部13aに入力された寝姿勢が示される。首タイプ82には、使用者の首の長さの種類が示される。例えば、頸椎M1から後頭部M8の高さL6の値が閾値以上である場合には、当該首のタイプは、「ロングタイプ(Lサイズ)」と判定され、首タイプ82にはLと表示される。高さL6の値が当該閾値以上でない場合には、当該首のタイプは、「ノーマルタイプ(Mサイズ)」と判定され、首タイプ82にはMと表示される。 The sleeping posture 81 indicates the sleeping posture input to the sleeping posture input unit 13a in FIG. The neck type 82 indicates the type of neck length of the user. For example, when the value of the height L6 from the cervical vertebrae M1 to the back of the head M8 is equal to or greater than the threshold value, the neck type is determined as "long type (L size)" and L is displayed as the neck type 82. . If the value of the height L6 is not equal to or greater than the threshold, the neck type is determined to be "normal type (M size)" and M is displayed as the neck type 82. FIG.

敷き寝具沈み込み83には、予想される敷き寝具の沈み込み量が表示される。敷き寝具の沈み込み量は、図2の寝具の硬さ入力部13b及び寝具の使用年数13cに入力された内容から算出される。例えば、寝具が柔らかい場合、及び、寝具の使用年数が長い場合には、敷き寝具の沈み込み量は大きくなる。 The bedding subsidence 83 displays the expected subsidence amount of the bedding. The sinking amount of the bedding is calculated from the contents entered in the bedding hardness input section 13b and the bedding usage years 13c in FIG. For example, if the bedding is soft and if the bedding has been used for a long time, the sinking amount of the bedding will increase.

ベース層84には、寝具のベース層の厚さが表示される。本実施形態では、寝具(一例として枕)は、ベース層と内容物とを含んでいる。一例として、ベース層は、平面視における枕の横方向(左右方向)及び縦方向(上下方向)に延在するクッション材である。枕の内容物は、後述されるように複数の内部空間に収容される詰め物である。例えば、各内部空間は、枕の厚さ方向において、ベース層と互いに隣り合うように配置される。 Base layer 84 indicates the thickness of the base layer of the bedding. In this embodiment, the bedding (pillow as an example) includes a base layer and a filling. As an example, the base layer is a cushion material extending in the horizontal direction (horizontal direction) and vertical direction (vertical direction) of the pillow in plan view. The content of the pillow is padding that is housed in multiple interior spaces as described below. For example, each internal space is arranged adjacent to the base layer in the thickness direction of the pillow.

素材入力部85には、例えば、寝具の内容物の種類が入力される。素材入力部85には、例えば、綿、パイプ材、ダウン・フェザー、エラストマーパイプ及びひのき等の内容物の種類を示す複数の記載がプルダウンメニューで表示される。このプルダウンメニューから選択された内容物が素材入力部85に入力されてもよい。 For example, the type of bedding content is input to the material input unit 85 . The material input section 85 displays a pull-down menu of a plurality of descriptions indicating the types of contents such as cotton, pipe material, down feather, elastomer pipe, and cypress. Contents selected from this pull-down menu may be input to the material input unit 85 .

入れ目表86は、寝具(一例として枕)の内容物の量を表示する。寝具の内容物の量は、一例として、質量として表示される。例えば、枕は、綿又はパイプ材等の内容物が収容される複数の内部空間を有する枕である。一例として、当該枕の内部空間は、平面視における枕の横方向(左右方向)において3分割されている。3分割された内部空間の中央の内部空間は、例えば、平面視における縦方向(上下方向)に4分割されており、3分割された内部空間の左右の内部空間は、縦方向に3分割されている。すなわち、当該枕は10個の内部空間に分割されている。 The fill table 86 displays the amount of filling in the bedding (pillows as an example). The amount of contents of the bedding is displayed as a mass, as an example. For example, a pillow is a pillow having multiple interior spaces in which contents such as cotton or tubing are accommodated. As an example, the internal space of the pillow is divided into three in the horizontal direction (horizontal direction) of the pillow in plan view. The inner space at the center of the three-divided interior space is, for example, divided into four in the vertical direction (vertical direction) in plan view, and the left and right interior spaces of the three-divided interior space are vertically divided into three. ing. That is, the pillow is divided into ten internal spaces.

入れ目表86には、内部空間毎の内容物の量の値が示される。内部空間毎の内容物の量の値は、素材入力部85に入力された寝具の内容物の種類に応じて計算される。入れ目表86に表示される内部空間毎の内容物の量の値は、使用者によって調整可能であってもよい。内部空間毎の内容物の量の値は、寝姿勢81、首タイプ82、敷き寝具沈み込み83及びベース層84のそれぞれが示す内容データF3に応じて計算されてもよい。なお、寝姿勢81、首タイプ82、敷き寝具沈み込み83、ベース層84、及び素材入力部85に表示されるデータが使用者によって変更された場合には、内部空間毎の内容物の量の値が再度計算される。 A fill table 86 indicates the amount of content for each internal space. The value of the content amount for each internal space is calculated according to the type of bedding content input to the material input section 85 . The amount of content per interior space value displayed in fill chart 86 may be adjustable by the user. The content amount value for each internal space may be calculated according to the content data F3 indicated by each of the sleeping posture 81, neck type 82, bedding sinking 83, and base layer 84. FIG. Note that if the user changes the data displayed in the sleeping posture 81, neck type 82, bedding sinking 83, base layer 84, and material input section 85, the amount of content in each internal space can be changed. The value is calculated again.

例えば、敷き寝具沈み込み83に応じて、枕の内容物の量が調整されてもよい。例えば、敷き寝具の沈み込み量が大きい場合には、枕が高くなるように枕の内容物の量が調整されてもよい。ベース層84に表示されるベース層の厚さに応じて、枕の内容物の量が調整されてもよい。 For example, depending on the bedding sink 83, the amount of pillow filling may be adjusted. For example, if the amount of sinking of the bedding is large, the amount of filling in the pillow may be adjusted so that the pillow is high. Depending on the thickness of the base layer indicated on the base layer 84, the amount of pillow filling may be adjusted.

入れ目表86に表示される内部空間毎の内容物の量の値は、頸椎M1の背面位置X2(図9参照)と後頭部M8の背面位置X1との差、及び、側面位置B1の値から求められてもよい。例えば、内容データ算出部51は、背面位置X2と背面位置X1との差が大きいほど、平面視における枕の横方向中央且つ縦方向一方側に位置する内部空間の値を大きくしてもよい。すなわち、内容データ算出部51は、背面位置X2と背面位置X1との差(頸椎のくびれ)が大きいほど、平面視における横方向中央且つ縦方向一方側の高さが高くなるように内容物の量を算出してもよい。 The value of the amount of contents in each internal space displayed in the mesh table 86 is obtained from the difference between the back position X2 of the cervical spine M1 (see FIG. 9) and the back position X1 of the occipital region M8 and the value of the lateral position B1. may be asked. For example, the content data calculation unit 51 may increase the value of the internal space positioned at the center in the horizontal direction and one side in the vertical direction of the pillow in plan view as the difference between the back position X2 and the back position X1 increases. That is, the content data calculation unit 51 calculates the contents so that the height of the center in the horizontal direction and the one side in the vertical direction in plan view increases as the difference between the back position X2 and the back position X1 (constriction of the cervical vertebrae) increases. amount may be calculated.

内容データ算出部51は、頸椎M1の背面位置X2と後頭部M8の背面位置X1との差が大きいほど枕の高さが高くなるように、内容物の量を算出してもよい。内容データ算出部51は、肩から耳の付け根までの側面位置B1(図4参照)の値が大きいほど枕の高さが高くなるように、内容物の量を算出してもよい。 The content data calculation unit 51 may calculate the amount of content so that the height of the pillow increases as the difference between the back position X2 of the cervical spine M1 and the back position X1 of the occiput M8 increases. The content data calculation unit 51 may calculate the amount of content so that the height of the pillow increases as the value of the side position B1 (see FIG. 4) from the shoulder to the base of the ear increases.

例えば、内容データ算出部51は、側面位置B1の値が大きいほど、平面視における枕の横方向両端側に位置する内部空間の値を大きくする。すなわち、内容データ算出部51は側面位置B1(又は側面位置B2)の値(肩幅)が大きいほど、平面視の枕における横方向の両端側の高さが高くなるように内容物の量を算出及び表示してもよい。 For example, the content data calculation unit 51 increases the value of the inner space positioned on both lateral ends of the pillow in plan view as the value of the side position B1 increases. That is, the content data calculation unit 51 calculates the amount of content so that the height of both sides of the pillow in the horizontal direction increases as the value (shoulder width) of the side position B1 (or the side position B2) increases. and may be displayed.

次に、寝具提案方法の工程の例について図11を参照しながら説明する。なお、図11に示す工程は、あくまで例示であって、これらの工程には限定されない。最初に手動入力工程が実行される(ステップS1)。手動入力工程では、例えば、情報端末2で寝具提案システム1のプログラムが起動され、図2に示される画面11,12,13において、寝具提案システム1への操作及び入力が行われる。 Next, an example of the steps of the bedding proposal method will be described with reference to FIG. Note that the steps shown in FIG. 11 are merely examples, and the present invention is not limited to these steps. First, a manual input process is performed (step S1). In the manual input step, for example, the program of the bedding proposal system 1 is started on the information terminal 2, and operations and inputs to the bedding proposal system 1 are performed on screens 11, 12, and 13 shown in FIG.

次に、第1の位置情報取得工程と第2の位置情報取得工程との何れか一方を使用者に選択させる選択工程が実施される(ステップS2)。選択工程では、例えば、画面13において、第1ボタン21及び第2ボタン22の何れか一方を使用者に選択させる。第1ボタン21が選択されると第1の位置情報取得工程が選択され、第2ボタン22が選択されると第2の位置情報取得工程が選択される。 Next, a selection step is performed in which the user selects either one of the first location information acquisition step and the second location information acquisition step (step S2). In the selection step, for example, the user selects either the first button 21 or the second button 22 on the screen 13 . When the first button 21 is selected, the first location information acquisition step is selected, and when the second button 22 is selected, the second location information acquisition step is selected.

選択工程で、第1の位置情報取得工程が選択された場合には、第1の位置情報取得工程が実行される(ステップS3)。第1の位置情報取得工程では、使用者が撮影されることによって得られる撮影データから身体Mの各部の位置情報が取得される。例えば、情報端末2のカメラによって撮影データが取得され、第1の位置情報取得部31のサイズ算出表示部によって身体Mの各部の位置情報が取得される。 When the first positional information obtaining step is selected in the selection step, the first positional information obtaining step is executed (step S3). In the first positional information obtaining step, positional information of each part of the body M is obtained from photographed data obtained by photographing the user. For example, photographed data is acquired by the camera of the information terminal 2 , and position information of each part of the body M is acquired by the size calculation display section of the first position information acquisition section 31 .

選択工程で、第2の位置情報取得工程が選択された場合には、第2の位置情報取得工程が実行される(ステップS4)。第2の位置情報取得工程では、使用者に接触する測定器3から身体Mの各部の位置情報が取得される。例えば、測定器3の変位測定部3bが使用者の背面をなぞることによって測定された身体Mの各部の位置情報が第2の位置情報取得部32によって取得され、当該位置情報を含む識別コードが識別コード表示部3cに表示される。第2の位置情報取得工程では、撮影データ取得部33が測定器3から取得した識別コードから位置情報を取得してもよい。 In the selection step, when the second positional information acquisition step is selected, the second positional information acquisition step is executed (step S4). In the second positional information acquisition step, positional information of each part of the body M is acquired from the measuring device 3 that contacts the user. For example, the positional information of each part of the body M measured by tracing the back of the user with the displacement measuring unit 3b of the measuring device 3 is acquired by the second positional information acquiring unit 32, and the identification code including the positional information is obtained. It is displayed on the identification code display section 3c. In the second position information acquisition step, the position information may be acquired from the identification code acquired from the measuring device 3 by the photographed data acquisition unit 33 .

次に、第1の位置情報取得工程及び第2の位置情報取得工程のうち使用者によって選択された一方によって取得された位置情報から寝具の内容データを算出する内容データ算出工程が実行される(ステップS5)。このとき、形状データ算出部61によって算出された形状データCから寝具の内容データが算出されてもよい。 Next, a content data calculation step of calculating content data of the bedding from the position information acquired by one of the first position information acquisition step and the second position information acquisition step selected by the user is executed ( step S5). At this time, the content data of the bedding may be calculated from the shape data C calculated by the shape data calculator 61 .

最後に、寝具の内容データを表示する内容データ表示工程が実行される(ステップS6)。図7に示されるように、マットレスの側断面を模式的に示すマットレス模式図F1と、パッド挿入要否表F2とが情報端末2のディスプレイに表示されてもよい。図10に示されるように、入れ目表86を含む枕の内容データF3が表示されてもよい。以上により、一連の工程が完了する。 Finally, a content data display step of displaying content data of bedding is executed (step S6). As shown in FIG. 7, the display of the information terminal 2 may display a mattress schematic diagram F1 schematically showing a side cross section of the mattress and a pad insertion necessity table F2. As shown in FIG. 10, pillow content data F3 including fill chart 86 may be displayed. A series of processes are completed by the above.

続いて、本実施形態に係る寝具提案システム1及び寝具提案方法から得られる作用効果について説明する。この寝具提案システム1では、使用者は、第1の位置情報取得部31及び第2の位置情報取得部32の何れか一方を選択できる。使用者が第1の位置情報取得部31を選択する場合には、使用者の身体Mの各部の位置情報は、使用者の身体Mの撮影によって得られた撮影データから取得される。従って、位置情報の取得にあたり測定器等を身体に接触させる必要がないので、撮影データから身体Mの各部の位置情報を容易に取得することができる。 Next, effects obtained from the bedding proposal system 1 and the bedding proposal method according to the present embodiment will be described. In this bedding proposal system 1 , the user can select either one of the first positional information acquiring section 31 and the second positional information acquiring section 32 . When the user selects the first positional information acquisition unit 31, the positional information of each part of the user's body M is acquired from the photographed data obtained by photographing the user's body M. FIG. Therefore, since it is not necessary to bring the measuring instrument or the like into contact with the body when acquiring the position information, the position information of each part of the body M can be easily acquired from the photographed data.

よって、使用者が第1の位置情報取得部31を選択する場合には、使用者の身体Mの各部の位置情報を容易に取得できるので、寝具を簡易に提案することができる。使用者が第2の位置情報取得部32を選択する場合には、使用者の身体Mの各部の位置情報は、測定器3から取得される。測定器3は使用者に接触して身体Mの位置情報を取得するので、背景、及び使用者の着衣などの撮影条件の影響を受けない。よって、使用者が第2の位置情報取得部32を選択する場合には、使用者の身体Mの各部の位置情報を高精度に取得できるので、寝具を高精度に提案することができる。以上のように、使用者は、簡易な提案が可能な第1の位置情報取得部31、及び高精度な提案が可能な第2の位置情報取得部32の何れか一方を選択できるので、使用者のニーズに応じた柔軟な提案を実現できる。 Therefore, when the user selects the first positional information acquisition unit 31, the positional information of each part of the user's body M can be easily acquired, so that bedding can be easily suggested. When the user selects the second positional information acquisition unit 32 , the positional information of each part of the user's body M is acquired from the measuring device 3 . Since the measuring device 3 acquires the positional information of the body M by contacting the user, it is not affected by the shooting conditions such as the background and the user's clothes. Therefore, when the user selects the second positional information acquiring unit 32, the positional information of each part of the user's body M can be acquired with high accuracy, so bedding can be recommended with high accuracy. As described above, the user can select either the first location information acquisition unit 31 capable of making a simple proposal or the second location information acquisition unit 32 capable of making a highly accurate proposal. It is possible to realize flexible proposals according to the needs of customers.

図5に示されるように、測定器3は、位置情報を含む識別コードを表示する識別コード表示部3cを備えてもよい。撮影データ取得部33は、識別コード表示部3cが表示する識別コードを取得してもよい。第2の位置情報取得部32は、撮影データ取得部33が取得した識別コードから位置情報を取得してもよい。この場合、測定器3が取得した身体Mの各部の位置情報を含む識別コードが撮影データ取得部33によって取得される。このため、測定器3が取得した身体Mの各部の位置情報を寝具提案システム1に手動入力する場合と比べて、身体Mの各部の位置情報を測定器3から容易に取得できる。 As shown in FIG. 5, the measuring device 3 may have an identification code display section 3c that displays an identification code including position information. The photographed data acquisition unit 33 may acquire the identification code displayed by the identification code display unit 3c. The second positional information acquiring section 32 may acquire the positional information from the identification code acquired by the photographed data acquiring section 33 . In this case, the photographed data acquisition unit 33 acquires an identification code including the position information of each part of the body M acquired by the measuring device 3 . Therefore, the position information of each part of the body M can be easily obtained from the measuring device 3 as compared with the case of manually inputting the position information of each part of the body M acquired by the measuring device 3 into the bedding proposal system 1 .

寝具提案システム1は、形状データ算出部61及び形状データ表示部62を備えてもよい。図7及び図8に示されるように、形状データ算出部61は、位置情報から身体Mの各部の形状を示す形状データCを算出してもよい。形状データ表示部62は、形状データCを表示してもよい。撮影データ取得部33は、使用者の寝姿勢が撮影されることによって得られる寝姿勢データNを取得してもよい。形状データ表示部62は、寝姿勢データNと形状データCとを重ねて表示してもよい。このように、使用者の寝姿勢を示す寝姿勢データNと、身体Mの各部の形状を示す形状データCとを重ねて表示することも可能である。この場合、使用者は、使用者自身の寝姿勢と身体Mの形状データCとを見比べることで、寝姿勢における身体Mの形状と寝ていない姿勢で得られた身体Mの形状との違いを把握することができる。 The bedding proposal system 1 may include a shape data calculator 61 and a shape data display 62 . As shown in FIGS. 7 and 8, the shape data calculator 61 may calculate shape data C indicating the shape of each part of the body M from the position information. The shape data display section 62 may display the shape data C. FIG. The imaging data acquisition unit 33 may acquire sleeping posture data N obtained by imaging the sleeping posture of the user. The shape data display section 62 may display the sleeping posture data N and the shape data C in an overlapping manner. In this way, it is possible to display the sleeping posture data N indicating the sleeping posture of the user and the shape data C indicating the shape of each part of the body M in an overlapping manner. In this case, the user compares the user's own sleeping posture with the shape data C of the body M to see the difference between the shape of the body M in the sleeping posture and the shape of the body M obtained in the non-sleeping posture. can grasp.

寝具提案システム1は、体型パターン判定部71及び体型パターン表示部72を備えてもよい。図6及び図8に示されるように、体型パターン判定部71は、位置情報から使用者の体型パターンを判定してもよい。体型パターン表示部72は、体型パターンを表示してもよい。体型パターン表示部72は、体型パターンを示すシルエットSと寝姿勢データとを重ねて表示してもよい。この場合、使用者の寝姿勢を示す寝姿勢データNと、身体Mの各部の位置から判定されるシルエットSとが重なって表示される。体型パターンを示すシルエットSは、使用者の身体Mの特徴をパターン化して示したものである。使用者は、このシルエットSと寝姿勢データNとを見ることによって、使用者自身の寝姿勢データNと共に身体Mの特徴を把握することができる。 The bedding proposal system 1 may include a body pattern determination unit 71 and a body pattern display unit 72 . As shown in FIGS. 6 and 8, the body pattern determination unit 71 may determine the user's body pattern from the position information. The body pattern display section 72 may display the body pattern. The body pattern display section 72 may display the silhouette S representing the body pattern and the sleeping posture data in an overlapping manner. In this case, the sleeping posture data N indicating the sleeping posture of the user and the silhouette S determined from the position of each part of the body M are displayed in an overlapping manner. A silhouette S representing a body shape pattern is a patterned representation of the features of the body M of the user. By seeing the silhouette S and the sleeping posture data N, the user can grasp the characteristics of the body M as well as the sleeping posture data N of the user himself/herself.

寝具は、複数の寝具として寝具P1,P2,P3及び寝具T1,T2,T3を含んでもよい。寝具提案システム1は、寝具情報表示部40を備えてもよい。図4に示されるように、寝具情報表示部40は、寝具P1,P2,P3及び寝具T1,T2,T3の情報を表示し、且つ、寝具P1,P2,P3及び寝具T1,T2,T3の何れか一つを使用者に選択可能としてもよい。 The bedding may include bedding P1, P2, P3 and bedding T1, T2, T3 as a plurality of bedding. The bedding proposal system 1 may include a bedding information display section 40 . As shown in FIG. 4, the bedding information display unit 40 displays information of bedding P1, P2, P3 and bedding T1, T2, T3, and also displays information of bedding P1, P2, P3 and bedding T1, T2, T3. Either one may be selectable by the user.

図7及び図10に示されるように、内容データ表示部52は、寝具情報表示部40において使用者に選択された、寝具P1,P2,P3及び寝具T1,T2,T3の何れか一つの内容データを表示してもよい。この場合、使用者が選択した寝具P1,P2,P3及び寝具T1,T2,T3の内容データが表示される。従って、寝具提案システム1では、使用者によって選択された寝具P1,P2,P3及び寝具T1,T2,T3の何れか一つの寝具において、身体Mの各部の位置情報が加味された内容データを使用者が把握できるので、使用者のニーズにより適合した寝具の提案が可能となる。 As shown in FIGS. 7 and 10, the content data display section 52 displays the content of any one of the beddings P1, P2, P3 and the beddings T1, T2, T3 selected by the user in the bedding information display section 40. data may be displayed. In this case, the contents data of the beddings P1, P2, P3 and the beddings T1, T2, T3 selected by the user are displayed. Therefore, in the bedding proposal system 1, the bedding P1, P2, P3 and the bedding T1, T2, T3 selected by the user use the content data including the position information of each part of the body M. Therefore, it is possible to propose bedding that is more suitable for the user's needs.

図11に示されるように、この寝具提案方法では、使用者は、第1の位置情報取得工程(ステップS3)及び第2の位置情報取得工程(ステップS4)の何れか一方を選択できる。使用者が第1の位置情報取得工程(ステップS3)を選択する場合には、使用者の身体Mの各部の位置情報は、使用者の身体Mを撮影した撮影データから取得される。よって、前述した寝具提案システム1と同様、使用者が第1の位置情報取得工程を選択する場合には、撮影データから身体Mの各部の位置情報を容易に取得できるので、寝具を簡易に提案することができる。 As shown in FIG. 11, in this bedding proposal method, the user can select either the first location information acquisition step (step S3) or the second location information acquisition step (step S4). When the user selects the first positional information obtaining step (step S3), the positional information of each part of the user's body M is obtained from photographed data of the user's body M photographed. Therefore, as in the bedding proposal system 1 described above, when the user selects the first position information obtaining step, the position information of each part of the body M can be easily obtained from the photographed data, so bedding can be easily proposed. can do.

使用者が第2の位置情報取得工程を選択する場合には、使用者の身体Mの各部の位置情報は、測定器3から取得される。測定器3は使用者に接触して体の位置情報を取得するので、前述した寝具提案システム1と同様、寝具を高精度に提案することができる。従って、使用者は、簡易な提案が可能な第1の位置情報取得工程、及び高精度な提案が可能な第2の位置情報取得工程の何れか一方を選択できるので、使用者のニーズに応じた柔軟な提案を実現できる。 When the user selects the second positional information obtaining step, the positional information of each part of the user's body M is obtained from the measuring device 3 . Since the measuring device 3 acquires body position information by contacting the user, it is possible to highly accurately suggest bedding, as in the bedding suggestion system 1 described above. Therefore, the user can select either the first position information obtaining step that enables a simple proposal or the second position information obtaining step that enables a highly accurate proposal. flexible proposals can be realized.

以上、本開示に係る寝具提案システム及び寝具提案方法の実施形態について説明した。しかしながら、本開示は、前述した実施形態に限定されるものではなく、特許請求の範囲に記載した要旨の範囲内において適宜変形可能である。すなわち、寝具提案システムの各部の構成及び機能、並びに、寝具提案方法の各工程の内容及び順序は、上記の要旨を逸脱しない範囲において適宜変更可能である。 The embodiments of the bedding proposal system and the bedding proposal method according to the present disclosure have been described above. However, the present disclosure is not limited to the above-described embodiments, and can be appropriately modified within the scope of the claims. That is, the configuration and function of each part of the bedding proposal system and the contents and order of each step of the bedding proposal method can be changed as appropriate without departing from the scope of the above.

例えば、前述した実施形態では、手動入力部10及び選択部20を有する寝具提案システム1について説明した。しかしながら、寝具提案システムは手動入力部10及び選択部20の少なくともいずれかを有しないものであってもよく、寝具提案システムの構成は適宜変更可能である。また、寝具提案システムにおいて表示される画面のレイアウトについても前述した実施形態に限られず適宜変更可能である。 For example, in the embodiment described above, the bedding proposal system 1 having the manual input unit 10 and the selection unit 20 has been described. However, the bedding proposal system may not have at least one of the manual input unit 10 and the selection unit 20, and the configuration of the bedding proposal system can be changed as appropriate. Also, the layout of the screens displayed in the bedding proposal system is not limited to the above-described embodiment, and can be changed as appropriate.

前述した実施形態では、支持柱3a、変位測定部3b及び識別コード表示部3cを有する測定器3を用いて身体Mの位置情報を取得する例について説明した。しかしながら、身体に接触する測定器の構成は上記の例に限定されない。例えば、測定器は、使用者の後頭部に接触する複数の棒状体と、複数の棒状体の長手方向の位置を検出して使用者の後頭部の形状を測定する測定部とを備えた後頭部形状測定器であってもよい。 In the embodiment described above, an example in which the position information of the body M is acquired using the measuring instrument 3 having the support column 3a, the displacement measuring section 3b, and the identification code display section 3c has been described. However, the configuration of the body-contacting measuring device is not limited to the above example. For example, the measuring device includes a plurality of rod-shaped bodies that contact the back of the user's head, and a measuring unit that measures the shape of the back of the user's head by detecting the longitudinal positions of the plurality of rod-shaped bodies. It may be a vessel.

前述した実施形態では、寝具の例として枕及びマットレスについて説明した。しかしながら、本開示において、寝具は枕又はマットレスに限定されない。寝具は敷き布団、掛け布団、座布団又はクッションであってもよく、本開示において寝具の種類は適宜変更可能である。 In the embodiments described above, pillows and mattresses have been described as examples of bedding. However, in the present disclosure, bedding is not limited to pillows or mattresses. The bedding may be a mattress, a comforter, a floor cushion, or a cushion, and the type of bedding can be changed as appropriate in the present disclosure.

1…寝具提案システム、2…情報端末、3…測定器、3a…支持柱、3b…変位測定部、3c…識別コード表示部、10…手動入力部、11…画面、11a…スタートボタン、11b…寝姿勢チェックボタン、12…画面、12a…身長入力部、12b…体重入力部、12c…次へボタン、13…画面、13a…寝姿勢入力部、13b…寝具の硬さ入力部、13c…寝具の使用年数入力部、13d…寝具の種類入力部、20…選択部、21…第1ボタン、22…第2ボタン、31…第1の位置情報取得部、32…第2の位置情報取得部、33…撮影データ取得部、40…寝具情報表示部、51…内容データ算出部、52…内容データ表示部、61…形状データ算出部、62…形状データ表示部、71…体型パターン判定部、72…体型パターン表示部、80…画面、81…寝姿勢、82…首タイプ、83…敷き寝具沈み込み、84…ベース層、85…素材入力部、86…入れ目表、B1,B2…側面位置、C…形状データ、D1…マットレス、D2…枕、F…内容データ、F1…マットレス模式図、F2…パッド挿入要否表、F3…内容データ、K…マーク、L…身長、L1,L2,L3,L4,L5…高さ、M…身体、M1…頸椎、M2…背中、M3…腰、M4…臀部、M5…膝裏、M6…かかと、M7…頭頂部、M8…後頭部、N…寝姿勢データ、P1,P2,P3…寝具、LR,R,WR…メモリ、S…シルエット、T1,T2,T3…寝具、W1,W2,W3,W4,W5,W6…背面位置、X1,X2…背面位置。 DESCRIPTION OF SYMBOLS 1... Bedding proposal system, 2... Information terminal, 3... Measuring instrument, 3a... Supporting column, 3b... Displacement measuring part, 3c... Identification code display part, 10... Manual input part, 11... Screen, 11a... Start button, 11b Sleeping posture check button 12 Screen 12a Height input unit 12b Weight input unit 12c Next button 13 Screen 13a Sleeping posture input unit 13b Bedding firmness input unit 13c Years of bedding use input unit 13d Bedding type input unit 20 Selection unit 21 First button 22 Second button 31 First location information acquisition unit 32 Second location information acquisition Section 33... Photographed data acquisition section 40... Bedding information display section 51... Content data calculation section 52... Content data display section 61... Shape data calculation section 62... Shape data display section 71... Body pattern determination section , 72... body pattern display section, 80... screen, 81... sleeping posture, 82... neck type, 83... bedding sinking, 84... base layer, 85... material input section, 86... insert table, B1, B2... Side position, C... shape data, D1... mattress, D2... pillow, F... content data, F1... mattress schematic diagram, F2... pad insertion necessity table, F3... content data, K... mark, L... height, L1, L2, L3, L4, L5...height, M...body, M1...cervical vertebrae, M2...back, M3...waist, M4...buttocks, M5...back of knees, M6...heels, M7...top of head, M8...back of head, N ... sleeping posture data, P1, P2, P3 ... bedding, LR, R, WR ... memory, S ... silhouette, T1, T2, T3 ... bedding, W1, W2, W3, W4, W5, W6 ... back position, X1, X2: Back position.

Claims (6)

寝具を提案するときに用いられる寝具提案システムであって、
前記寝具の使用者の身体を撮影した撮影データを取得する撮影データ取得部と、
前記撮影データから前記使用者の身体の各部の位置情報を取得する第1の位置情報取得部と、
前記使用者に接触する測定器から前記使用者の身体の各部の位置情報を取得する第2の位置情報取得部と、
前記第1の位置情報取得部及び前記第2の位置情報取得部の何れか一方を前記使用者に選択させる選択部と、
前記第1の位置情報取得部及び前記第2の位置情報取得部のうち前記使用者によって選択された一方によって取得された前記位置情報から前記寝具の内容データを算出する内容データ算出部と、
前記内容データを表示する内容データ表示部と、
を備える寝具提案システム。
A bedding proposal system used when suggesting bedding,
a photographed data acquisition unit that acquires photographed data obtained by photographing the body of the user of the bedding;
a first position information acquisition unit that acquires position information of each part of the user's body from the imaging data;
a second position information acquisition unit that acquires position information of each part of the user's body from a measuring device that contacts the user;
a selection unit that allows the user to select one of the first location information acquisition unit and the second location information acquisition unit;
a content data calculation unit for calculating content data of the bedding from the position information acquired by one of the first position information acquisition unit and the second position information acquisition unit selected by the user;
a content data display unit for displaying the content data;
A bedding suggestion system comprising:
前記測定器は、前記位置情報を含む識別コードを表示する識別コード表示部を備え、
前記撮影データ取得部は、前記識別コード表示部が表示する前記識別コードを取得し、
前記第2の位置情報取得部は、前記撮影データ取得部が取得した前記識別コードから前記位置情報を取得する、
請求項1に記載の寝具提案システム。
The measuring instrument comprises an identification code display unit that displays an identification code containing the position information,
The captured data acquisition unit acquires the identification code displayed by the identification code display unit,
The second location information acquisition unit acquires the location information from the identification code acquired by the captured data acquisition unit.
The bedding suggestion system according to claim 1.
前記位置情報から前記身体の各部の形状を示す形状データを算出する形状データ算出部と、
前記形状データを表示する形状データ表示部と、
を備え、
前記撮影データ取得部は、前記使用者の寝姿勢が撮影されることによって得られた寝姿勢データを取得し、
前記形状データ表示部は、前記寝姿勢データと前記形状データとを重ねて表示する、
請求項1又は2に記載の寝具提案システム。
a shape data calculation unit that calculates shape data indicating the shape of each part of the body from the position information;
a shape data display unit that displays the shape data;
with
The imaging data acquisition unit acquires sleeping posture data obtained by imaging the sleeping posture of the user,
The shape data display unit displays the sleeping posture data and the shape data in an overlapping manner.
The bedding suggestion system according to claim 1 or 2.
前記位置情報から前記使用者の体型パターンを判定する体型パターン判定部と、
前記体型パターンを表示する体型パターン表示部と、
を備え、
前記撮影データ取得部は、前記使用者の寝姿勢が撮影されることによって得られた寝姿勢データを取得し、
前記体型パターン表示部は、前記体型パターン判定部によって判定された前記体型パターンを示すシルエットと前記寝姿勢データとを重ねて表示する、
請求項1~3の何れか一項に記載の寝具提案システム。
a body pattern determination unit that determines a body pattern of the user from the position information;
a body pattern display unit that displays the body pattern;
with
The imaging data acquisition unit acquires sleeping posture data obtained by imaging the sleeping posture of the user,
The body pattern display unit superimposes and displays a silhouette indicating the body pattern determined by the body pattern determination unit and the sleeping posture data.
The bedding proposal system according to any one of claims 1 to 3.
前記寝具は、第1の寝具及び第2の寝具を含み、
前記第1の寝具の情報と前記第2の寝具の情報とを表示し、且つ、前記第1の寝具及び前記第2の寝具の何れか一方を選択可能とされた寝具情報表示部を備え、
前記内容データ表示部は、前記寝具情報表示部において選択された前記第1の寝具及び前記第2の寝具の何れか一方の前記内容データを表示する、
請求項1~4の何れか一項に記載の寝具提案システム。
The bedding includes first bedding and second bedding,
a bedding information display unit that displays information about the first bedding and information about the second bedding, and that enables selection of either the first bedding or the second bedding,
the content data display unit displays the content data of either the first bedding or the second bedding selected in the bedding information display unit;
The bedding proposal system according to any one of claims 1 to 4.
寝具を提案するときに用いられる寝具提案方法であって、
前記寝具の使用者が撮影されることによって得られた撮影データから前記使用者の身体の各部の位置情報を取得する第1の位置情報取得工程、及び、前記使用者に接触する測定器から前記使用者の身体の各部の位置情報を取得する第2の位置情報取得工程、の何れか一方を前記使用者に選択させる選択工程と、
前記第1の位置情報取得工程及び前記第2の位置情報取得工程のうち前記使用者によって選択された一方によって取得された前記使用者の身体の各部の位置情報から前記寝具の内容データを算出する内容データ算出工程と、
前記内容データを表示する内容データ表示工程と、
を備える寝具提案方法。
A bedding proposal method used when proposing bedding,
a first position information acquiring step of acquiring position information of each part of the user's body from photographed data obtained by photographing the user of the bedding; a selection step of causing the user to select either one of a second position information acquisition step of acquiring position information of each part of the user's body;
calculating content data of the bedding from position information of each part of the user's body acquired by one of the first position information acquisition step and the second position information acquisition step selected by the user; a content data calculation step;
a content data display step of displaying the content data;
a bedding proposal method comprising:
JP2022009496A 2022-01-25 2022-01-25 Bedding proposal system and bedding proposal method Pending JP2023108395A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022009496A JP2023108395A (en) 2022-01-25 2022-01-25 Bedding proposal system and bedding proposal method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022009496A JP2023108395A (en) 2022-01-25 2022-01-25 Bedding proposal system and bedding proposal method

Publications (1)

Publication Number Publication Date
JP2023108395A true JP2023108395A (en) 2023-08-04

Family

ID=87475390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022009496A Pending JP2023108395A (en) 2022-01-25 2022-01-25 Bedding proposal system and bedding proposal method

Country Status (1)

Country Link
JP (1) JP2023108395A (en)

Similar Documents

Publication Publication Date Title
JP2009045244A (en) Foot measuring apparatus
JPWO2006049057A1 (en) Human spine measurement display system
KR20160135583A (en) Smart seat, method and apparatus for analyzing sitting posture of user, and recording medium for storing program thereof
KR101118918B1 (en) A method for obtaining shape data for manufacturing support plate of customized chair, a method for manufacturing support plate of customized chair, support plate for customized chair and customized chair
JP2006334299A (en) Human body dimension measuring method and device using pin slide device
JP2023108395A (en) Bedding proposal system and bedding proposal method
JP5990503B2 (en) Apparatus and method for selecting bedding
JP4120825B2 (en) Human spine measurement display system
KR20170107416A (en) Method for recommending a mattress automatically
TW201937440A (en) Sleeping apparatus and sleeping system
Volpe et al. A computational model for early assessment of padded furniture comfort performance
JP2016087206A (en) Massage system
JP7486163B2 (en) Bedding suggestion system and bedding suggestion method
JP3829620B2 (en) Cushion state diagnostic apparatus for cushion-divided bedding and diagnostic method
WO2023135625A1 (en) Evaluation device, evaluation method, and recording medium
JP2006296654A (en) Method for providing individual pillow using three-dimensional shape-measuring apparatus
JP2021186247A (en) Bedding proposal system and bedding proposal method
KR100645976B1 (en) Pillow customizing system
JP2022158271A (en) bedding
JP2001299545A (en) Advice system for choosing pillow
JP7164105B2 (en) Bedding evaluation method
KR20170072707A (en) Method for recommending a mattress automatically
JP2023102264A (en) Sleeping posture data processing device, bedding manufacturing apparatus, bedding selection device, sleeping posture data processing method, computer program and bedding data processing device
JP2019025193A (en) Information processing method, method for manufacturing mattress, information processing system, and program
JPWO2014045514A1 (en) Load distribution measuring system and information processing apparatus