JP2021051565A - Display device, display method, and display program - Google Patents

Display device, display method, and display program Download PDF

Info

Publication number
JP2021051565A
JP2021051565A JP2019174271A JP2019174271A JP2021051565A JP 2021051565 A JP2021051565 A JP 2021051565A JP 2019174271 A JP2019174271 A JP 2019174271A JP 2019174271 A JP2019174271 A JP 2019174271A JP 2021051565 A JP2021051565 A JP 2021051565A
Authority
JP
Japan
Prior art keywords
display
unit
preference
predetermined
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019174271A
Other languages
Japanese (ja)
Other versions
JP7363271B2 (en
Inventor
裕介 清水
Yusuke Shimizu
裕介 清水
須山 明昇
Akinori Suyama
明昇 須山
真那夢 高橋
Manamu Takahashi
真那夢 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019174271A priority Critical patent/JP7363271B2/en
Publication of JP2021051565A publication Critical patent/JP2021051565A/en
Priority to JP2023172059A priority patent/JP2023168495A/en
Application granted granted Critical
Publication of JP7363271B2 publication Critical patent/JP7363271B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a display device, a display method, and a display program capable of reducing the burden on a user.SOLUTION: A display device 100 includes: a main body 10 having a display 11; a video acquisition unit 31 configured to acquire a video to be displayed on the display 11; a video analysis unit 32 configured to extract a predetermined object from the acquired video; a preference storage unit 36a configured to store preference data indicating preferences for the predetermined object; a calculation unit 33 configured to obtain a preference coincidence degree indicating the degree of coincidence between the preference data stored in the preference storage unit 36a and the object extracted by the video analysis unit 32; and a display control unit 35 configured to display the predetermined object on the display in a predetermined display mode based on the preference coincidence degree.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置、表示方法、及び表示プログラムに関する。 The present invention relates to a display device, a display method, and a display program.

配信者側の配信装置と受信者側の受信装置との間を通信可能な状態とすることにより、遠隔地の受信者に対して臨場感を感じられるように映像を配信する情報配信システムが知られている(例えば、特許文献1参照)。このような情報配信システムでは、配信者が配信装置として、例えばヘッドマウントディスプレイ(以下、HMDと表記する)、スマートフォン等の表示部を有する表示装置を装着又は保持した状態で、遠隔地の受信者に対してショッピングを代行することが可能である。 The information distribution system that distributes video so that the receiver in a remote location can feel the presence by making it possible to communicate between the distribution device on the distributor side and the reception device on the receiver side is known. (See, for example, Patent Document 1). In such an information distribution system, a receiver in a remote location is equipped or held by a distributor as a distribution device, for example, a display device having a display unit such as a head-mounted display (hereinafter referred to as HMD) or a smartphone. It is possible to do shopping on your behalf.

特開2009−259135号公報Japanese Unexamined Patent Publication No. 2009-259135

上記の技術では、ショッピングの代行者である表示装置の使用者(配信者)が、依頼者(受信者)の好みに応じた商品の映像を受信者に提供する等、受信者の意に沿うように行動することが求められる。そのため、使用者は依頼者と頻繁にコミュニケーションをとる必要が生じ、負担が大きくなる場合がある。 In the above technology, the user (distributor) of the display device, which is a shopping agent, provides the receiver with a video of the product according to the preference of the requester (receiver), which is in line with the recipient's intention. It is required to act like this. Therefore, the user needs to communicate frequently with the client, which may increase the burden.

本発明は、上記に鑑みてなされたものであり、使用者の負担を低減することが可能な表示装置、表示方法、及び表示プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a display device, a display method, and a display program capable of reducing the burden on the user.

本発明に係る表示装置は、表示部を有する本体部と、前記表示部に表示する映像を取得する映像取得部と、取得した前記映像から所定のオブジェクトを抽出する映像解析部と、前記オブジェクトについての嗜好データを記憶する嗜好記憶部と、前記嗜好記憶部に記憶された前記嗜好データに基づいて、前記映像解析部が抽出した前記オブジェクトの嗜好一致度を求める演算部と、前記嗜好一致度に基づいて、前記オブジェクトの前記映像を所定の表示態様により前記表示部に表示する表示制御部とを備える。 The display device according to the present invention relates to a main body unit having a display unit, an image acquisition unit that acquires an image to be displayed on the display unit, an image analysis unit that extracts a predetermined object from the acquired image, and the object. The preference storage unit that stores the preference data of the object, the calculation unit that obtains the preference matching degree of the object extracted by the video analysis unit based on the preference data stored in the preference storage unit, and the preference matching degree. Based on this, a display control unit that displays the image of the object on the display unit in a predetermined display mode is provided.

本発明に係る表示方法は、本体部に設けられる表示部に表示する映像を取得することと、取得した前記映像から所定のオブジェクトを抽出することと、前記オブジェクトについて予め記憶された嗜好データに基づいて、前記抽出されたオブジェクトの嗜好一致度を求めることと、前記嗜好一致度に基づいて、前記オブジェクトの前記映像を所定の表示態様により前記表示部に表示することとを含む。 The display method according to the present invention is based on acquiring an image to be displayed on a display unit provided in the main body unit, extracting a predetermined object from the acquired image, and preference data stored in advance for the object. The present invention includes obtaining the degree of preference matching of the extracted object, and displaying the image of the object on the display unit in a predetermined display mode based on the degree of preference matching.

本発明に係る表示プログラムは、本体部に設けられる表示部に表示する映像を取得する処理と、取得した前記映像から所定のオブジェクトを抽出する処理と、前記所定のオブジェクトに対する好みを示す嗜好データと、前記抽出されたオブジェクトとの一致度合いを示す嗜好一致度を求める処理と、前記嗜好一致度に基づいて、前記所定のオブジェクトを所定の表示態様により前記表示部に表示する処理とをコンピュータに実行させる。 The display program according to the present invention includes a process of acquiring an image to be displayed on a display unit provided in a main body unit, a process of extracting a predetermined object from the acquired image, and preference data indicating a preference for the predetermined object. , A process of obtaining a preference match degree indicating the degree of matching with the extracted object, and a process of displaying the predetermined object on the display unit in a predetermined display mode based on the preference match degree are executed on the computer. Let me.

本発明によれば、配信者の負担を低減することが可能となる。 According to the present invention, it is possible to reduce the burden on the distributor.

図1は、本実施形態に係る表示装置の一例を示す図である。FIG. 1 is a diagram showing an example of a display device according to the present embodiment. 図2は、嗜好記憶部に記憶される嗜好データの一例を示す図である。FIG. 2 is a diagram showing an example of preference data stored in the preference storage unit. 図3は、環境情報記憶部に記憶される環境情報の一例を示す図である。FIG. 3 is a diagram showing an example of environmental information stored in the environmental information storage unit. 図4は、表示装置の表示部における表示内容の一例を示す図である。FIG. 4 is a diagram showing an example of display contents in the display unit of the display device. 図5は、表示装置の表示部における表示内容の他の例を示す図である。FIG. 5 is a diagram showing another example of display contents in the display unit of the display device. 図6は、本実施形態に係る表示方法の一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of the display method according to the present embodiment.

以下、本発明に係る表示装置、表示方法、及び表示プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Hereinafter, a display device, a display method, and an embodiment of a display program according to the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. In addition, the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same.

図1は、本実施形態に係る表示装置100の一例を示す図である。図1に示すように、表示装置100は、本体部10と、撮影部20と、制御装置30とを有する。本体部10は、使用者が頭部に装着可能な装着機構を有する。本体部10は、表示部11を有する。表示部11は、映像等の情報を表示可能である。本実施形態では、表示装置100の一例として、ヘッドマウントディスプレイ(HMD)装置が用いられる構成を説明する。この場合、表示部11は、いわゆるVR(Virtual Reality)デバイス、AR(Augmented Reality)グラス等のヘッドマウントディスプレイであり、使用者が頭部に装着した状態で使用者の両眼を覆う位置に配置される。 FIG. 1 is a diagram showing an example of a display device 100 according to the present embodiment. As shown in FIG. 1, the display device 100 includes a main body unit 10, a photographing unit 20, and a control device 30. The main body 10 has a mounting mechanism that can be worn by the user on the head. The main body 10 has a display 11. The display unit 11 can display information such as an image. In this embodiment, a configuration in which a head-mounted display (HMD) device is used as an example of the display device 100 will be described. In this case, the display unit 11 is a head-mounted display such as a so-called VR (Virtual Reality) device or AR (Augmented Reality) glass, and is arranged at a position where the user wears it on the head and covers both eyes of the user. Will be done.

撮影部20は、本体部10に装着される。撮影部20としては、例えばカメラ等が用いられる。撮影部20は、使用者が本体部10を頭部に装着した状態において、使用者目線での映像を撮影することが可能である。撮影部20は、撮影した映像を制御装置30に送信する。 The photographing unit 20 is attached to the main body 10. As the photographing unit 20, for example, a camera or the like is used. The photographing unit 20 can capture an image from the user's point of view while the user wears the main body 10 on the head. The photographing unit 20 transmits the captured image to the control device 30.

制御装置30は、CPU(Central Processing Unit)等の処理装置と、RAM(Random Access Memory)又はROM(Read Only Memory)等の記憶装置を有する。制御装置30は、映像取得部31、映像解析部32、演算部33、環境情報検出部34、表示制御部35、記憶部36、通信部37を有する。 The control device 30 includes a processing device such as a CPU (Central Processing Unit) and a storage device such as a RAM (Random Access Memory) or a ROM (Read Only Memory). The control device 30 includes a video acquisition unit 31, a video analysis unit 32, a calculation unit 33, an environment information detection unit 34, a display control unit 35, a storage unit 36, and a communication unit 37.

映像取得部31は、撮影部20で撮影された映像を取得する。映像解析部32は、取得した映像から所定のオブジェクトを抽出する。所定のオブジェクトとしては、例えば所定の店舗で販売される商品等が挙げられる。映像解析部32は、取得した映像について画像処理等を行うことにより、映像にオブジェクトが映っている場合、当該オブジェクトを抽出することが可能である。なお、後述の記憶部36には、映像解析部32が画像処理において各種判定を行うためのデータ等が記憶される。 The image acquisition unit 31 acquires the image captured by the photographing unit 20. The image analysis unit 32 extracts a predetermined object from the acquired image. Examples of the predetermined object include products sold at a predetermined store. The image analysis unit 32 can extract an object when it appears in the image by performing image processing or the like on the acquired image. The storage unit 36, which will be described later, stores data and the like for the video analysis unit 32 to perform various determinations in image processing.

オブジェクトは、1つ又は複数の要素を含む。例えば、オブジェクトが衣服である場合を例に挙げて説明する。衣服は、ジャンル(ポロシャツ、Tシャツ、Yシャツ、ズボン、等)、形状(全体の輪郭、各部:襟、袖、ボタン、ポケット等の形状)、寸法(全体の寸法、各部:襟、袖等の寸法)、色彩又は模様、素材等の各種要素を有する。 An object contains one or more elements. For example, the case where the object is clothes will be described as an example. Clothes include genres (polo shirts, T-shirts, Y-shirts, trousers, etc.), shapes (overall contours, parts: collars, sleeves, buttons, pockets, etc.), dimensions (overall dimensions, parts: collars, sleeves, etc.) Dimension), color or pattern, material, etc.

衣服を購入する場合、人によって又は購入時期等によって、オブジェクトの要素についての嗜好が異なる。例えば、衣服の種類については、ポロシャツを好む人と、Tシャツを好む人とが存在する。また、夏季には夏物の衣服が好まれやすく、冬季には冬物の衣服が好まれやすい。本実施形態では、このようなオブジェクトの要素についての購入者(例えば、受信者)の嗜好(好み)を示す要素データが嗜好データとして記憶部36の嗜好記憶部36aに記憶される。また、嗜好データとしては、オブジェクトの要素とは別個に設定されるものであってもよい。例えば、購入者の前回の購入履歴に基づいて嗜好データが設定されてもよい。また、購入者のスマートフォン等から情報を取得することで、例えばインターネットの閲覧履歴又は検索履歴等に基づいて嗜好データを設定することもできる。 When purchasing clothes, the preference for the elements of the object differs depending on the person or the time of purchase. For example, regarding the types of clothing, there are those who prefer polo shirts and those who prefer T-shirts. In addition, summer clothing is likely to be preferred in summer, and winter clothing is likely to be preferred in winter. In the present embodiment, element data indicating the preference (preference) of the purchaser (for example, the receiver) regarding the element of such an object is stored in the preference storage unit 36a of the storage unit 36 as preference data. Further, the preference data may be set separately from the element of the object. For example, preference data may be set based on the purchaser's previous purchase history. In addition, by acquiring information from the purchaser's smartphone or the like, preference data can be set based on, for example, Internet browsing history or search history.

演算部33は、嗜好記憶部36aに記憶された嗜好データに基づいて、映像解析部32が抽出したオブジェクトの嗜好一致度を求める。嗜好一致度は、抽出されたオブジェクトと、嗜好データに示される嗜好との嗜好一致度を示す値である。演算部33は、嗜好一致度を求める場合、抽出されたオブジェクトの要素と、記憶部36の嗜好記憶部36aに記憶されるオブジェクトの要素についての要素データとの間の類似度に基づいてスコアを算出し、スコアの合計に基づいて嗜好一致度を求める。例えば、スコアが高いほど、嗜好一致度が高くなる。また、スコアが低いほど、嗜好一致度が低くなる。また、例えばオブジェクトが衣服である場合、形状又は色等の要素は、オブジェクトを選択するにあたり重要な要素であり、大きな影響力を持つ。このため、形状又は色等の要素の類似度については、他の要素に比べて重み付けをしてスコアを算出することができる。また、演算部33は、スコアが所定の閾値よりも高いか低いかの2段階で嗜好一致度を算出してもよい。 The calculation unit 33 obtains the preference matching degree of the object extracted by the image analysis unit 32 based on the preference data stored in the preference storage unit 36a. The preference matching degree is a value indicating the preference matching degree between the extracted object and the preference shown in the preference data. When determining the degree of preference matching, the calculation unit 33 calculates a score based on the degree of similarity between the extracted object element and the element data of the object element stored in the preference storage unit 36a of the storage unit 36. Calculate and calculate the degree of preference matching based on the total score. For example, the higher the score, the higher the degree of preference matching. In addition, the lower the score, the lower the degree of preference matching. Further, for example, when the object is clothing, elements such as shape or color are important factors in selecting the object and have a great influence. Therefore, the similarity of elements such as shape or color can be weighted as compared with other elements to calculate the score. In addition, the calculation unit 33 may calculate the degree of preference agreement in two stages of whether the score is higher or lower than a predetermined threshold value.

環境情報検出部34は、本体部10の周囲の環境についての環境情報を検出する。環境情報検出部34は、検出した環境情報を記憶部36の環境情報記憶部36bに記憶させる。環境情報としては、例えば本体部10を装着する使用者の状態(移動中、移動停止中、会話中等)、本体部10に装着される撮影部20の状態(カメラの画角等)、本体部10が位置する場所(屋内、屋外、店内、店外等)、本体部10が店内に位置する場合の店内の状況(商品との距離、商品の価格、商品の在庫等)、天候(天気、気温、湿度等)等が挙げられる。なお、環境情報検出部34の具体的な構成について説明する。環境情報検出部34は、GPSセンサを含み、位置情報を検出することで、使用者の状態(移動中、移動停止中など)を示す環境情報を検出する。また、環境情報検出部34は、記憶部36に記憶されたカメラの画角等の設定を読み出すことで、撮影部20の状態(カメラの画角等)を示す環境情報を検出する。また、環境情報検出部34は、記憶部36に記憶された地図情報を読出し、位置情報と地図情報とを対比することで本体部10が位置する場所(屋内、屋外、店内、店外等)を検出する。もしくは、環境情報検出部34は、Wi−Fi(登録商標)やBluetooth(登録商標)による電波を受信可能なアンテナモジュールを含み、店舗などに設置された無線送信機からの電波を受信した場合には、本体部10が位置する場所(屋内、店内等)を検出する。もしくは、環境情報検出部34は、映像取得部31から撮影された映像を取得し、その映像から店舗を示すQRコード(登録商標)が解析された場合には、本体部10が位置する場所(屋内、店内等)を検出する。さらに、環境情報検出部34は、インターネットに接続可能なアンテナモジュールを含み、特定のサーバからインターネットを介して店内の状況(商品との距離、商品の価格、商品の在庫等)、天候(天気、気温、湿度等)等を示す環境情報を検出する。環境情報検出部34は、上述の構成の全てを含んでもよく、一部だけを含んでもよい。 The environmental information detection unit 34 detects environmental information about the environment around the main body 10. The environmental information detection unit 34 stores the detected environmental information in the environmental information storage unit 36b of the storage unit 36. The environmental information includes, for example, the state of the user who attaches the main body 10 (moving, stopped moving, talking, etc.), the state of the photographing unit 20 attached to the main body 10 (angle of view of the camera, etc.), and the main body. The location where 10 is located (indoor, outdoor, inside the store, outside the store, etc.), the situation inside the store when the main body 10 is located inside the store (distance to the product, product price, product inventory, etc.), weather (weather, weather, etc.) Temperature, humidity, etc.). The specific configuration of the environmental information detection unit 34 will be described. The environmental information detection unit 34 includes a GPS sensor and detects the position information to detect the environmental information indicating the state of the user (moving, stopped moving, etc.). Further, the environment information detection unit 34 detects the environment information indicating the state of the photographing unit 20 (camera angle of view, etc.) by reading out the settings such as the angle of view of the camera stored in the storage unit 36. Further, the environmental information detection unit 34 reads the map information stored in the storage unit 36 and compares the position information with the map information to determine the location where the main body 10 is located (indoor, outdoor, inside the store, outside the store, etc.). Is detected. Alternatively, when the environmental information detection unit 34 includes an antenna module capable of receiving radio waves from Wi-Fi (registered trademark) or Bluetooth (registered trademark) and receives radio waves from a wireless transmitter installed in a store or the like. Detects the location (indoor, store, etc.) where the main body 10 is located. Alternatively, the environmental information detection unit 34 acquires the image taken from the image acquisition unit 31, and when the QR code (registered trademark) indicating the store is analyzed from the image, the place where the main body unit 10 is located ( Detect indoors, in stores, etc.). Further, the environmental information detection unit 34 includes an antenna module that can be connected to the Internet, and the situation in the store (distance to the product, product price, product inventory, etc.), weather (weather, etc.) from a specific server via the Internet. Detects environmental information indicating temperature, humidity, etc.). The environmental information detection unit 34 may include all of the above-described configurations, or may include only a part of the above configuration.

表示制御部35は、表示部11の表示動作を制御する。表示制御部35は、映像取得部31により取得された映像を表示部11に表示させる。また、表示制御部35は、演算部33で算出される嗜好一致度に基づいて、オブジェクトの映像を所定の表示態様で表示部11に表示する。所定の表示態様としては、他の領域に対して強調して表示する強調表示等が挙げられる。例えば、オブジェクトの輪郭を強調する表示態様、オブジェクトに対してバウンディングボックスを表示する表示態様、オブジェクトを拡大して表示する表示態様、オブジェクトに対するエフェクト(きらきら、オーラ等)を表示する表示態様、オブジェクト以外の領域の視認性を低下させる表示態様、等が挙げられる。 The display control unit 35 controls the display operation of the display unit 11. The display control unit 35 causes the display unit 11 to display the image acquired by the image acquisition unit 31. Further, the display control unit 35 displays the image of the object on the display unit 11 in a predetermined display mode based on the preference matching degree calculated by the calculation unit 33. As a predetermined display mode, highlighting and the like of highlighting and displaying with respect to other areas can be mentioned. For example, a display mode that emphasizes the outline of an object, a display mode that displays a bounding box for an object, a display mode that enlarges and displays an object, a display mode that displays effects (glitter, aura, etc.) for an object, and other than an object. A display mode that reduces the visibility of the area of the above, and the like can be mentioned.

記憶部36は、各種情報を記憶する。記憶部36は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部36として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部36は、制御装置30から独立して設けられてもよい。記憶部36は、上記のように嗜好記憶部36a及び環境情報記憶部36bを有する。 The storage unit 36 stores various information. The storage unit 36 has storage such as a hard disk drive or a solid state drive. An external storage medium such as a removable disk may be used as the storage unit 36. The storage unit 36 may be provided independently of the control device 30. The storage unit 36 has a preference storage unit 36a and an environmental information storage unit 36b as described above.

嗜好記憶部36aは、オブジェクトの要素についての嗜好データを記憶する。図2は、嗜好記憶部36aに記憶される嗜好データの一例を示す図である。図2に示すように、嗜好記憶部36aには、オブジェクトの要素(ジャンル、形状、色等)と、ヨウ素の具体的種類と、当該具体的種類についての係数とが対応付けて記憶される。係数は、嗜好一致度を求める場合に、スコアを算出する際の重み付けの値である。係数は、対象者の嗜好に応じて対象者毎に値が設定される。 The preference storage unit 36a stores preference data for the elements of the object. FIG. 2 is a diagram showing an example of preference data stored in the preference storage unit 36a. As shown in FIG. 2, in the preference storage unit 36a, the elements (genre, shape, color, etc.) of the object, the specific type of iodine, and the coefficient for the specific type are stored in association with each other. The coefficient is a weighting value when calculating the score when determining the degree of preference matching. The coefficient is set to a value for each target person according to the preference of the target person.

環境情報記憶部36bは、環境情報検出部34によって検出された環境情報を記憶する。図3は、環境情報記憶部36bに記憶される環境情報の一例を示す図である。図3に示すように、環境情報記憶部36bは、検出された環境情報の具体的種類と、当該種類についての環境情報とが対応付けて記憶される。 The environmental information storage unit 36b stores the environmental information detected by the environmental information detection unit 34. FIG. 3 is a diagram showing an example of environmental information stored in the environmental information storage unit 36b. As shown in FIG. 3, the environmental information storage unit 36b stores a specific type of detected environmental information and environmental information about the type in association with each other.

また、記憶部36は、本体部10に設けられる表示部11に表示する映像を取得する処理と、取得した映像から所定のオブジェクトを抽出する処理と、所定のオブジェクトに対する好みを示す嗜好データと、抽出されたオブジェクトとの一致度合いを示す嗜好一致度を求める処理と、嗜好一致度に基づいて、所定のオブジェクトを所定の表示態様により表示部11に表示する処理とをコンピュータに実行させる表示プログラムを記憶する。 Further, the storage unit 36 includes a process of acquiring an image to be displayed on the display unit 11 provided in the main body unit 10, a process of extracting a predetermined object from the acquired image, and preference data indicating a preference for the predetermined object. A display program that causes a computer to execute a process of obtaining a preference match degree indicating the degree of matching with an extracted object and a process of displaying a predetermined object on the display unit 11 in a predetermined display mode based on the preference match degree. Remember.

通信部37は、不図示のネットワークを介して情報の通信が可能である。通信部37は、有線及び無線のいずれの通信を行うものであってもよい。通信部37は、例えば情報として、映像取得部31により取得された映像、表示制御部35により所定の表示態様で表示されるオブジェクトの映像等を送信することができる。 The communication unit 37 can communicate information via a network (not shown). The communication unit 37 may perform either wired or wireless communication. The communication unit 37 can transmit, for example, as information, a video acquired by the video acquisition unit 31, a video of an object displayed by the display control unit 35 in a predetermined display mode, and the like.

本実施形態では、遠隔地にいる受信者(依頼者)の依頼により、使用者が実際の店舗において衣服(オブジェクト)のショッピングを代行する場合を例に挙げて説明する。受信者側には、表示装置100の通信部37から送信される情報を受信可能な受信装置200が設けられる。受信装置200は、不図示の表示部を有する。受信装置200は、通信部37から送信される映像が表示部201に表示されるようになっている。受信者は、受信装置200の表示部201を見ることにより、使用者と同様に、表示装置100の表示部11に表示される映像、つまり、撮影部20により取得される映像及び所定の表示態様で表示されるオブジェクトの映像を見ることができる。 In the present embodiment, a case where the user acts as an agent for shopping for clothes (objects) at an actual store at the request of a receiver (requester) in a remote location will be described as an example. On the receiver side, a receiving device 200 capable of receiving information transmitted from the communication unit 37 of the display device 100 is provided. The receiving device 200 has a display unit (not shown). In the receiving device 200, the video transmitted from the communication unit 37 is displayed on the display unit 201. By looking at the display unit 201 of the receiving device 200, the receiver, like the user, displays the image displayed on the display unit 11 of the display device 100, that is, the image acquired by the photographing unit 20 and a predetermined display mode. You can see the image of the object displayed in.

次に、上記のように構成された表示装置100の動作を説明する。使用者は、表示装置100の本体部10を頭部に装着し、購入するオブジェクトを販売する店舗に行く。撮影部20は、使用者目線の映像を撮影する。表示制御部35は、映像取得部31により取得された映像を表示部11に表示させる。環境情報検出部34は、本体部10の周囲の環境情報を取得し、環境情報を記憶部36の環境情報記憶部36bに記憶させる。なお、オブジェクトに対する受信者の嗜好データは、予め記憶部36の嗜好記憶部36aに記憶しておく。 Next, the operation of the display device 100 configured as described above will be described. The user attaches the main body 10 of the display device 100 to the head and goes to a store that sells the object to be purchased. The photographing unit 20 captures an image from the user's perspective. The display control unit 35 causes the display unit 11 to display the image acquired by the image acquisition unit 31. The environmental information detection unit 34 acquires the environmental information around the main body 10 and stores the environmental information in the environmental information storage unit 36b of the storage unit 36. The recipient's preference data for the object is stored in advance in the preference storage unit 36a of the storage unit 36.

図4は、表示装置100の表示部11における表示内容の一例を示す図である。使用者が屋外又は屋内を移動していることが環境情報検出部34により検出される場合、表示制御部35は、購入目的となるオブジェクトのうち受信者が嗜好する要素を備えたオブジェクトの画像を表示部11に表示することができる。図4に示すように、表示制御部35は、例えば表示部11の所定の表示領域12にオブジェクトの画像を示すことができる。なお、図4では、オブジェクトの画像以外の映像については省略している。 FIG. 4 is a diagram showing an example of display contents on the display unit 11 of the display device 100. When the environmental information detection unit 34 detects that the user is moving outdoors or indoors, the display control unit 35 displays an image of an object to be purchased that includes an element preferred by the recipient. It can be displayed on the display unit 11. As shown in FIG. 4, the display control unit 35 can show an image of an object in a predetermined display area 12 of the display unit 11, for example. Note that in FIG. 4, images other than the image of the object are omitted.

このとき、表示制御部35は、環境情報に応じて、表示部11に表示するオブジェクトの数を調整することができる。例えば、表示制御部35は、撮影部20の画角が大きい場合には表示数を多くし、画角が小さい場合には表示数を少なくする等、撮影部20の画角の設定に応じてオブジェクトの表示数を調整することができる。また、例えば表示制御部35は、本体部10が屋外に位置している場合にはオブジェクトの表示数を少なくし、屋内に位置している場合にはオブジェクトの表示数を多くし、目的とするオブジェクトを販売する店舗内に位置している場合にはオブジェクトの表示数を更に多くすることができる。また、表示制御部35は、天気が悪い(雨、雪、強風等)場合には、天気が良い(晴れ、曇等)場合に比べて、オブジェクトの表示数を少なくしてもよい。 At this time, the display control unit 35 can adjust the number of objects to be displayed on the display unit 11 according to the environmental information. For example, the display control unit 35 increases the number of displays when the angle of view of the photographing unit 20 is large, decreases the number of displays when the angle of view is small, and so on, depending on the setting of the angle of view of the photographing unit 20. You can adjust the number of objects displayed. Further, for example, the display control unit 35 aims to reduce the number of objects displayed when the main body 10 is located outdoors and increase the number of objects displayed when the main body 10 is located indoors. If the object is located in a store that sells the object, the number of displayed objects can be further increased. Further, the display control unit 35 may display a smaller number of objects when the weather is bad (rain, snow, strong wind, etc.) than when the weather is good (sunny, cloudy, etc.).

使用者が目的の店舗に入店した場合、環境情報検出部34は、本体部10の周囲の環境情報を店外から店内へと変更する。環境情報が店内に変更された場合、表示制御部35は、オブジェクトの表示態様を変更する。図5は、表示部11の表示内容の他の例を示す図である。使用者が店舗内にいる状態において、表示制御部35は、図5に示すように、受信者が嗜好するオブジェクトの表示領域12を拡大する。 When the user enters the target store, the environmental information detection unit 34 changes the environmental information around the main body 10 from outside the store to inside the store. When the environmental information is changed in the store, the display control unit 35 changes the display mode of the object. FIG. 5 is a diagram showing another example of the display content of the display unit 11. While the user is in the store, the display control unit 35 expands the display area 12 of the object preferred by the receiver, as shown in FIG.

また、映像取得部31は、撮影部20で撮影された映像を取得する。映像解析部32は、取得した映像から衣服のオブジェクトを抽出する。演算部33は、嗜好記憶部36aに記憶された嗜好データに基づいて、映像解析部32が抽出したオブジェクトの嗜好一致度を求める。演算部33は、例えば抽出されたオブジェクトのスコアを算出し、所定の閾値よりも高い場合には嗜好一致度が高いと判定し、所定の閾値よりも低い場合には嗜好一致度が低いと判定する。また、環境情報検出部34は、本体部10の周囲の環境についての環境情報を検出し、検出した環境情報を記憶部36の環境情報記憶部36bに記憶させる。 Further, the image acquisition unit 31 acquires the image captured by the photographing unit 20. The image analysis unit 32 extracts clothing objects from the acquired video. The calculation unit 33 obtains the preference matching degree of the object extracted by the image analysis unit 32 based on the preference data stored in the preference storage unit 36a. For example, the calculation unit 33 calculates the score of the extracted object, determines that the preference matching degree is high when it is higher than the predetermined threshold value, and determines that the preference matching degree is low when it is lower than the predetermined threshold value. To do. Further, the environmental information detection unit 34 detects the environmental information about the environment around the main body 10 and stores the detected environmental information in the environmental information storage unit 36b of the storage unit 36.

表示制御部35は、演算部33で算出される嗜好一致度及び環境情報検出部34で検出される環境情報に基づいて、オブジェクトの映像を所定の表示態様で表示部11に表示する。図5は、表示装置100の表示部11における表示内容の他の例を示す図である。図5に示すように、表示制御部35は、映像解析部32が抽出したオブジェクトP1、P2、P3をそれぞれ表示部11に表示することができる。このうち、例えば一致度が高いと判定したオブジェクトP1については、他のオブジェクトP2、P3に比べて拡大して表示してもよい。また、表示制御部35は、例えば一致度が最も高いオブジェクトP1を表示領域13の中央に表示してもよい。また、表示制御部35は、一致度が低いと判定したオブジェクトP3については、例えば全体に網掛け表示を行って視認性を低下させるような表示態様としてもよい。オブジェクトの所定の表示形態については、上記に限定されず、他の表示形態としてもよい。 The display control unit 35 displays the image of the object on the display unit 11 in a predetermined display mode based on the preference matching degree calculated by the calculation unit 33 and the environmental information detected by the environmental information detection unit 34. FIG. 5 is a diagram showing another example of the display content on the display unit 11 of the display device 100. As shown in FIG. 5, the display control unit 35 can display the objects P1, P2, and P3 extracted by the image analysis unit 32 on the display unit 11, respectively. Of these, for example, the object P1 determined to have a high degree of matching may be enlarged and displayed as compared with the other objects P2 and P3. Further, the display control unit 35 may display, for example, the object P1 having the highest degree of matching in the center of the display area 13. Further, the display control unit 35 may have a display mode in which the object P3 determined to have a low degree of coincidence is, for example, shaded as a whole to reduce the visibility. The predetermined display form of the object is not limited to the above, and may be another display form.

また、表示制御部35は、例えば店舗内において、一致度が高いと判定されたオブジェクトP1、P2について、当該オブジェクトP1、P2に対応する商品と本体部10との距離が近づく場合に、距離が近づくにつれて表示の強調性を高める等の表示態様としてもよい。例えば、表示制御部35は、当該オブジェクトP1、P2に対応する商品が撮影された映像を解析し、数十秒間における撮影された商品の大きさの変化に基づいて、商品と本体部10との距離が近づいているか否かを判定してもよい。 Further, the display control unit 35 sets the distance between the objects P1 and P2 determined to have a high degree of matching in the store, for example, when the distance between the product corresponding to the objects P1 and P2 and the main body 10 is close. It may be a display mode such as increasing the emphasis of the display as it approaches. For example, the display control unit 35 analyzes an image in which a product corresponding to the objects P1 and P2 is photographed, and based on a change in the size of the photographed product in several tens of seconds, the product and the main body unit 10 It may be determined whether or not the distance is approaching.

また、環境情報検出部34は、例えばオブジェクトP1、P2に対応する商品の価格及び在庫の少なくとも一方についての商品情報を店舗から取得してもよい。この場合、表示制御部35は、当該商品情報に応じてオブジェクトP1、P2を強調表示することができる。表示制御部35は、例えばオブジェクトP1、P2に対応する商品の価格が割引価格となっている場合に、当該オブジェクトP1、P2を強調表示してもよい。また、オブジェクトP1、P2に対応する商品の在庫が残り少ない場合に、在庫が少ないことが判別可能となるようにオブジェクトP1、P2を点滅させるなどの強調表示を行ってもよい。なお、強調表示の態様は上記態様に限定されず、他の態様とすることが可能である。 Further, the environmental information detection unit 34 may acquire product information about at least one of the price and inventory of the product corresponding to the objects P1 and P2 from the store, for example. In this case, the display control unit 35 can highlight the objects P1 and P2 according to the product information. The display control unit 35 may highlight the objects P1 and P2, for example, when the price of the product corresponding to the objects P1 and P2 is a discounted price. Further, when the inventory of the products corresponding to the objects P1 and P2 is low, highlighting such as blinking the objects P1 and P2 may be performed so that it can be determined that the inventory is low. The highlighting mode is not limited to the above mode, and may be other modes.

また、表示制御部35は、オブジェクトを表示部11に表示する場合、例えば本体部10が屋内に位置する場合には、本体部10が屋内に位置しない場合に比べて、表示するオブジェクトの数を多くすることができる。このように、表示制御部35は、環境情報に応じてオブジェクトの表示数を調整することができる。 Further, when the display control unit 35 displays the objects on the display unit 11, for example, when the main body unit 10 is located indoors, the number of objects to be displayed is reduced as compared with the case where the main body unit 10 is not located indoors. You can do a lot. In this way, the display control unit 35 can adjust the number of objects to be displayed according to the environmental information.

図6は、本実施形態に係る表示方法の一例を示すフローチャートである。図6に示すように、映像取得部31は、撮影部20で撮影される映像を取得する(ステップS10)。表示制御部35は、取得した映像を表示部11に表示される。また、映像解析部32は、取得した映像から所定のオブジェクトを抽出する(ステップS20)。ステップS20において、映像解析部32は、所定のオブジェクトごとに用意したテンプレートによりパターンマッチングなどの画像処理を行うことで、所定のオブジェクトを抽出することができる。なお、映像解析部32による所定のオブジェクトの抽出手法はこれに限定されず、種々の画像処理手法を用いることができる。 FIG. 6 is a flowchart showing an example of the display method according to the present embodiment. As shown in FIG. 6, the image acquisition unit 31 acquires the image captured by the photographing unit 20 (step S10). The display control unit 35 displays the acquired video on the display unit 11. Further, the image analysis unit 32 extracts a predetermined object from the acquired image (step S20). In step S20, the image analysis unit 32 can extract a predetermined object by performing image processing such as pattern matching with a template prepared for each predetermined object. The method for extracting a predetermined object by the video analysis unit 32 is not limited to this, and various image processing methods can be used.

演算部33は、オブジェクトについて予め記憶部36の嗜好記憶部36aに記憶された嗜好データに基づいて、上記の抽出されたオブジェクトの嗜好一致度を求める(ステップS30)。ステップS30において、演算部33は、オブジェクトの要素ごとに要素データとの類似度に応じたスコアを算出し、スコアの総計に基づいて嗜好一致度を求める。 The calculation unit 33 obtains the preference matching degree of the extracted object based on the preference data stored in the preference storage unit 36a of the storage unit 36 in advance for the object (step S30). In step S30, the calculation unit 33 calculates a score according to the degree of similarity with the element data for each element of the object, and obtains the degree of preference matching based on the total score.

表示制御部35は、求めた嗜好一致度に基づいて、オブジェクトの映像を所定の表示態様により表示部11に表示する(ステップS40)。ステップS40において、表示制御部35は、嗜好一致度に加えて、環境情報検出部34により取得される環境情報に基づいてオブジェクトの映像の表示態様を設定してもよい。 The display control unit 35 displays the image of the object on the display unit 11 in a predetermined display mode based on the obtained preference match degree (step S40). In step S40, the display control unit 35 may set the display mode of the image of the object based on the environmental information acquired by the environmental information detection unit 34 in addition to the preference matching degree.

以上のように、本実施形態に係る表示装置100は、表示部11を有する本体部10と、表示部11に表示する映像を取得する映像取得部31と、取得した映像から所定のオブジェクトを抽出する映像解析部32と、所定のオブジェクトに対する好みを示す嗜好データを記憶する嗜好記憶部36aと、嗜好記憶部36aに記憶された嗜好データと、映像解析部32が抽出たオブジェクトとの一致度合いを示す嗜好一致度を求める演算部33と、嗜好一致度に基づいて、所定のオブジェクトを所定の表示態様により表示部11に表示する表示制御部35とを備える。 As described above, the display device 100 according to the present embodiment extracts a predetermined object from the main body unit 10 having the display unit 11, the image acquisition unit 31 for acquiring the image to be displayed on the display unit 11, and the acquired image. The degree of coincidence between the image analysis unit 32, the preference storage unit 36a that stores the preference data indicating the preference for a predetermined object, the preference data stored in the preference storage unit 36a, and the object extracted by the image analysis unit 32. A calculation unit 33 for obtaining the degree of preference matching to be shown, and a display control unit 35 for displaying a predetermined object on the display unit 11 in a predetermined display mode based on the degree of preference matching are provided.

また、本実施形態に係る表示方法は、本体部10に設けられる表示部11に表示する映像を取得することと、取得した映像から所定のオブジェクトを抽出することと、所定のオブジェクトに対する好みを示す嗜好データと、抽出されたオブジェクトとの一致度合いを示す嗜好一致度を求めることと、嗜好一致度に基づいて、所定のオブジェクトを所定の表示態様により表示部11に表示することとを含む。 Further, the display method according to the present embodiment is to acquire an image to be displayed on the display unit 11 provided in the main body unit 10, extract a predetermined object from the acquired image, and indicate a preference for the predetermined object. It includes obtaining a preference matching degree indicating the degree of matching between the preference data and the extracted object, and displaying a predetermined object on the display unit 11 in a predetermined display mode based on the preference matching degree.

また、本実施形態に係る表示プログラムは、本体部10に設けられる表示部11に表示する映像を取得する処理と、取得した映像から所定のオブジェクトを抽出する処理と、所定のオブジェクトに対する好みを示す嗜好データと、抽出されたオブジェクトとの一致度合いを示す嗜好一致度を求める処理と、嗜好一致度に基づいて、所定のオブジェクトを所定の表示態様により表示部11に表示する処理とをコンピュータに実行させる。 Further, the display program according to the present embodiment shows a process of acquiring an image to be displayed on the display unit 11 provided in the main body unit 10, a process of extracting a predetermined object from the acquired image, and a preference for a predetermined object. The computer executes a process of obtaining a preference match degree indicating the degree of matching between the preference data and the extracted object, and a process of displaying a predetermined object on the display unit 11 in a predetermined display mode based on the preference match degree. Let me.

本実施形態によれば、予め記憶された嗜好データに基づいて、抽出されたオブジェクトの嗜好一致度を求め、求めた嗜好一致度に基づいてオブジェクトの映像を所定の表示態様により表示部11に表示する。これにより、外部と頻繁なコミュニケーションをとらなくても、選択すべきオブジェクトを使用者に容易に把握させることができるため、使用者の負担を低減することができる。 According to the present embodiment, the preference matching degree of the extracted object is obtained based on the preference data stored in advance, and the image of the object is displayed on the display unit 11 in a predetermined display mode based on the obtained preference matching degree. To do. As a result, the user can easily grasp the object to be selected without having to communicate frequently with the outside, so that the burden on the user can be reduced.

本実施形態に係る表示装置100は、本体部10の周囲の環境についての環境情報を検出する環境情報検出部34を更に備え、表示制御部35は、嗜好一致度と環境情報とに基づいて表示態様を設定する。これにより、本体部10の周囲の環境に応じて柔軟に表示態様を設定することができる。 The display device 100 according to the present embodiment further includes an environment information detection unit 34 that detects environmental information about the environment around the main body 10, and the display control unit 35 displays based on the degree of preference matching and the environment information. Set the aspect. As a result, the display mode can be flexibly set according to the surrounding environment of the main body 10.

本実施形態に係る表示装置100において、環境情報は、本体部10が屋内に位置するか否かについての情報を含み、表示制御部35は、本体部10が屋内に位置する場合、本体部10が屋内に位置しない場合に比べて、表示するオブジェクトの数を多くする。これにより、屋内に位置しない場合、つまり屋外に位置する場合において、表示するオブジェクトの数が少なくなるため、使用者の視界を確保できる。 In the display device 100 according to the present embodiment, the environmental information includes information about whether or not the main body 10 is located indoors, and the display control unit 35 is the main body 10 when the main body 10 is located indoors. Display more objects than if is not located indoors. As a result, the number of objects to be displayed is reduced when the object is not located indoors, that is, when it is located outdoors, so that the user's field of view can be secured.

本実施形態に係る表示装置100において、オブジェクトは、所定の店舗で販売される商品であり、環境情報は、本体部10が店舗内に位置するか否かについての情報を含む。これにより、本体部10が店舗内に位置する場合と、店舗内に位置しない場合とで表示態様を異なるように設定することができる。 In the display device 100 according to the present embodiment, the object is a product sold at a predetermined store, and the environmental information includes information on whether or not the main body 10 is located in the store. As a result, the display mode can be set differently depending on whether the main body 10 is located in the store or not in the store.

本実施形態に係る表示装置100において、環境情報は、本体部10とオブジェクトに対応する商品との距離を含み、表示制御部35は、距離が近づくにつれてオブジェクトを拡大表示させる。これにより、使用者に対して、オブジェクトに対応する商品に近づいていることを直感的に認識させることができる。 In the display device 100 according to the present embodiment, the environmental information includes the distance between the main body unit 10 and the product corresponding to the object, and the display control unit 35 enlarges and displays the object as the distance approaches. As a result, the user can intuitively recognize that the product corresponding to the object is approaching.

本実施形態に係る表示装置100において、環境情報は、オブジェクトの価格及びオブジェクトの在庫数の少なくとも一方についての商品情報を含み、表示制御部35は、商品情報に応じた表示態様を設定する。これにより、使用者に商品情報を併せて認識させることができる。 In the display device 100 according to the present embodiment, the environmental information includes product information about at least one of the price of the object and the number of stocks of the object, and the display control unit 35 sets the display mode according to the product information. As a result, the user can be made to recognize the product information as well.

本実施形態に係る表示装置100において、嗜好データは、オブジェクトの要素ごとに設定可能な要素データを含み、演算部33は、映像解析部32が抽出したオブジェクトの要素と嗜好記憶部36aに記憶された要素データとの間の類似度に基づいてスコアを算出し、スコアの合計に基づいて嗜好一致度を求める。これにより、嗜好一致度を高精度に求めることができる。 In the display device 100 according to the present embodiment, the preference data includes element data that can be set for each element of the object, and the calculation unit 33 is stored in the element of the object extracted by the video analysis unit 32 and the preference storage unit 36a. The score is calculated based on the degree of similarity with the element data, and the degree of preference matching is obtained based on the total score. As a result, the degree of preference matching can be obtained with high accuracy.

本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、オブジェクトとして衣服を例に挙げて説明したが、これに限定されず、他の種類の商品がオブジェクトであってもよい。また、表示装置100としては、上記実施形態のHMD装置には限定されず、例えばスマートフォン等、表示部を有する端末装置等であってもよい。 The technical scope of the present invention is not limited to the above-described embodiment, and modifications can be made as appropriate without departing from the spirit of the present invention. For example, in the above embodiment, clothing has been described as an example as an object, but the present invention is not limited to this, and other types of products may be objects. Further, the display device 100 is not limited to the HMD device of the above embodiment, and may be, for example, a terminal device having a display unit such as a smartphone.

P1,P2,P3…オブジェクト、10…本体部、11,201…表示部、12,13…表示領域、20…撮影部、30…制御装置、31…映像取得部、32…映像解析部、33…演算部、34…環境情報検出部、35…表示制御部、36…記憶部、36a…嗜好記憶部、36b…環境情報記憶部、37…通信部、100…表示装置、200…受信装置 P1, P2, P3 ... Object, 10 ... Main body unit, 11,201 ... Display unit, 12, 13 ... Display area, 20 ... Shooting unit, 30 ... Control device, 31 ... Image acquisition unit, 32 ... Image analysis unit, 33 ... Calculation unit, 34 ... Environmental information detection unit, 35 ... Display control unit, 36 ... Storage unit, 36a ... Preference storage unit, 36b ... Environmental information storage unit, 37 ... Communication unit, 100 ... Display device, 200 ... Receiver device

Claims (6)

表示部を有する本体部と、
前記表示部に表示する映像を取得する映像取得部と、
取得した前記映像から所定のオブジェクトを抽出する映像解析部と、
前記所定のオブジェクトに対する好みを示す嗜好データを記憶する嗜好記憶部と、
前記嗜好記憶部に記憶された前記嗜好データと、前記映像解析部が抽出したオブジェクトとの一致度合いを示す嗜好一致度を求める演算部と、
前記嗜好一致度に基づいて、前記所定のオブジェクトを所定の表示態様により前記表示部に表示する表示制御部と
を備える表示装置。
The main body with the display and
An image acquisition unit that acquires an image to be displayed on the display unit,
An image analysis unit that extracts a predetermined object from the acquired image, and
A preference storage unit that stores preference data indicating preferences for the predetermined object, and
A calculation unit for obtaining a preference matching degree indicating a matching degree between the preference data stored in the preference storage unit and an object extracted by the video analysis unit.
A display device including a display control unit that displays the predetermined object on the display unit in a predetermined display mode based on the preference matching degree.
前記本体部の周囲の環境についての環境情報を検出する環境情報処理部を更に備え、
前記表示制御部は、前記嗜好一致度と前記環境情報とに基づいて前記表示態様を設定する
請求項1に記載の表示装置。
It is further equipped with an environmental information processing unit that detects environmental information about the environment around the main unit.
The display device according to claim 1, wherein the display control unit sets the display mode based on the preference matching degree and the environmental information.
前記環境情報は、前記本体部が屋内に位置するか否かについての情報を含み、
前記表示制御部は、前記本体部が屋内に位置する場合、前記本体部が屋内に位置しない場合に比べて、表示する前記所定のオブジェクトの数を多くする
請求項2に記載の表示装置。
The environmental information includes information on whether or not the main body is located indoors.
The display device according to claim 2, wherein the display control unit increases the number of the predetermined objects to be displayed when the main body is located indoors, as compared with the case where the main body is not located indoors.
前記環境情報は、前記本体部と前記所定のオブジェクトに対応する商品との距離を含み、
前記表示制御部は、前記距離が近づくにつれて前記オブジェクトを拡大表示させる
請求項2または請求項3に記載の表示装置。
The environmental information includes the distance between the main body and the product corresponding to the predetermined object.
The display device according to claim 2 or 3, wherein the display control unit enlarges and displays the object as the distance approaches.
本体部に設けられる表示部に表示する映像を取得することと、
取得した前記映像から所定のオブジェクトを抽出することと、
前記所定のオブジェクトに対する好みを示す嗜好データと、前記抽出されたオブジェクトとの一致度合いを示す嗜好一致度を求めることと、
前記嗜好一致度に基づいて、前記所定のオブジェクトを所定の表示態様により前記表示部に表示することと
を含む表示方法。
Acquiring the image to be displayed on the display unit provided on the main unit, and
Extracting a predetermined object from the acquired video and
Obtaining the preference matching degree indicating the degree of matching between the preference data indicating the preference for the predetermined object and the extracted object, and
A display method including displaying the predetermined object on the display unit in a predetermined display mode based on the preference matching degree.
本体部に設けられる表示部に表示する映像を取得する処理と、
取得した前記映像から所定のオブジェクトを抽出する処理と、
前記所定のオブジェクトに対する好みを示す嗜好データと、前記抽出されたオブジェクトとの一致度合いを示す嗜好一致度を求める処理と、
前記嗜好一致度に基づいて、前記所定のオブジェクトを所定の表示態様により前記表示部に表示する処理と
をコンピュータに実行させる表示プログラム。
The process of acquiring the image to be displayed on the display unit provided on the main unit, and
The process of extracting a predetermined object from the acquired video and
Preference data indicating the preference for the predetermined object and the process of obtaining the preference matching degree indicating the degree of matching with the extracted object.
A display program that causes a computer to execute a process of displaying the predetermined object on the display unit in a predetermined display mode based on the preference matching degree.
JP2019174271A 2019-09-25 2019-09-25 Display device, display method, and display program Active JP7363271B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019174271A JP7363271B2 (en) 2019-09-25 2019-09-25 Display device, display method, and display program
JP2023172059A JP2023168495A (en) 2019-09-25 2023-10-03 Display device, display method and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174271A JP7363271B2 (en) 2019-09-25 2019-09-25 Display device, display method, and display program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023172059A Division JP2023168495A (en) 2019-09-25 2023-10-03 Display device, display method and display program

Publications (2)

Publication Number Publication Date
JP2021051565A true JP2021051565A (en) 2021-04-01
JP7363271B2 JP7363271B2 (en) 2023-10-18

Family

ID=75157308

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019174271A Active JP7363271B2 (en) 2019-09-25 2019-09-25 Display device, display method, and display program
JP2023172059A Pending JP2023168495A (en) 2019-09-25 2023-10-03 Display device, display method and display program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023172059A Pending JP2023168495A (en) 2019-09-25 2023-10-03 Display device, display method and display program

Country Status (1)

Country Link
JP (2) JP7363271B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156478A (en) * 2017-03-17 2018-10-04 ラスパンダス株式会社 Computer program
WO2019135313A1 (en) * 2018-01-04 2019-07-11 ソニー株式会社 Information processing device, information processing method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156478A (en) * 2017-03-17 2018-10-04 ラスパンダス株式会社 Computer program
WO2019135313A1 (en) * 2018-01-04 2019-07-11 ソニー株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP2023168495A (en) 2023-11-24
JP7363271B2 (en) 2023-10-18

Similar Documents

Publication Publication Date Title
CN106462979B (en) Fashion preference analysis
CN108010008B (en) Target tracking method and device and electronic equipment
US9390315B1 (en) Image match for featureless objects
CN108051777B (en) Target tracking method and device and electronic equipment
JP5728406B2 (en) Clothes image processing system, clothes image processing method, program
US10747991B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
CN111681070B (en) Online commodity purchasing method, purchasing device, storage device and purchasing equipment
US11367128B2 (en) Smart display apparatus and smart display method
JP2018084890A (en) Information processing unit, information processing method, and program
US9354712B2 (en) Recognition device, intelligent device and information providing method for human machine interaction
KR102206133B1 (en) Method for transaction based on image and apparatus for performing the method
US9990665B1 (en) Interfaces for item search
WO2017043244A1 (en) Search device, search system, and search method
KR20180100074A (en) Method and system for sorting a search result with space objects, and a computer-readable storage device
US20200054209A1 (en) System and method for measuring pupillary distance
KR20200139934A (en) Clothes Wearing Service Apparatus and Method using Augmented Reality
CN105955451A (en) Travel prompt method based on user image
KR102340904B1 (en) System and method for virtual fitting based on augument reality
JP2018112777A (en) Recommendation item output program, output control program, recommendation item output apparatus, recommendation item output method and output control method
JP6975312B2 (en) Fraud estimation system, fraud estimation method, and program
JP7363271B2 (en) Display device, display method, and display program
CN112102018A (en) Intelligent fitting mirror implementation method and related device
US10701999B1 (en) Accurate size selection
KR101737936B1 (en) Method for providing coupon using smart glass and mobile device
KR20170056493A (en) Method for providing data related to product using smart glass and mobile device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R150 Certificate of patent or registration of utility model

Ref document number: 7363271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150