JP2024025997A - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP2024025997A
JP2024025997A JP2022129409A JP2022129409A JP2024025997A JP 2024025997 A JP2024025997 A JP 2024025997A JP 2022129409 A JP2022129409 A JP 2022129409A JP 2022129409 A JP2022129409 A JP 2022129409A JP 2024025997 A JP2024025997 A JP 2024025997A
Authority
JP
Japan
Prior art keywords
user
unit
terminal device
information processing
abstracted content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022129409A
Other languages
Japanese (ja)
Inventor
奈翁美 笹谷
Naomi Sasaya
香 池松
Kaori Ikematsu
健司 鈴木
Kenji Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ly Corp
Original Assignee
Ly Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ly Corp filed Critical Ly Corp
Priority to JP2022129409A priority Critical patent/JP2024025997A/en
Publication of JP2024025997A publication Critical patent/JP2024025997A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To abstract an object that a user does not want to see in a view field image of a goggle-type wearable device.
SOLUTION: An information processing device according to the present invention comprises: an acquisition unit that acquires a visual field image of a goggle-type wearable device; an identification unit that identifies an object that a user cannot permit from the visual field image; a conversion unit that converts the object into an abstracted content that can be permitted by the user; and a display control unit that displays the abstracted content at a position of the object in a superimposed manner in the visual field image of the goggle-type wearable device.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

ユーザに提示したい仮想オブジェクトを優先して表示する技術が開示されている。 A technique has been disclosed that prioritizes and displays virtual objects that the user wants to see.

特開2021-144258号公報JP 2021-144258 Publication

しかしながら、上記の従来技術では、ユーザに提示したい仮想オブジェクトを表示することに言及しているが、ユーザに提示したくない実物体や仮想物体の表示に関しては触れられていない。例えば、AR(Augmented Reality:拡張現実)機能を有するメガネ型ウェアラブルデバイス(Wearable Device)においては、視野画像がユーザの視界となる上に、ユーザと画面との距離が近いため、ユーザは目をそらすことや目をそむけることができず、視野画像に表示されたものは見たくないものであっても見ざるを得ない。しかし、ユーザが見たくないものを単に隠したり見えなくしたりしてしまうと、ユーザの視界や認識に不備が生じる。 However, although the above-mentioned conventional technology refers to displaying virtual objects that the user wants to present, it does not mention displaying real objects or virtual objects that the user does not want to present. For example, in a glasses-type wearable device that has an AR (Augmented Reality) function, the visual field image becomes the user's field of view, and the distance between the user and the screen is close, so the user tends to look away. They are unable to look away and have no choice but to look at what is displayed in the visual field image, even if they do not want to see it. However, if something that the user does not want to see is simply hidden or made invisible, the user's visibility and recognition will be impaired.

本願は、上記に鑑みてなされたものであって、メガネ型ウェアラブルデバイスの視野画像において、ユーザが見たくないものを抽象化することを目的とする。 The present application has been made in view of the above, and aims to abstract what the user does not want to see in the visual field image of a glasses-type wearable device.

本願に係る情報処理装置は、メガネ型ウェアラブルデバイスの視界画像を取得する取得部と、前記視界画像の中からユーザが許容できない対象物を特定する特定部と、前記対象物を前記ユーザが許容可能な抽象化コンテンツに変換する変換部と、前記メガネ型ウェアラブルデバイスの前記視界画像内の前記対象物の位置に前記抽象化コンテンツを重畳して表示する表示制御部とを備えることを特徴とする。 The information processing device according to the present application includes: an acquisition unit that acquires a visual field image of a glasses-type wearable device; a specifying unit that identifies objects that are unacceptable to the user from among the visual field images; and a display control unit that displays the abstracted content in a superimposed manner at the position of the object in the field of view image of the glasses-type wearable device.

実施形態の一態様によれば、メガネ型ウェアラブルデバイスの視野画像において、ユーザが見たくないものを抽象化することができる。 According to one aspect of the embodiment, it is possible to abstract what the user does not want to see in the visual field image of the glasses-type wearable device.

図1は、実施形態に係る情報処理方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing system according to an embodiment. 図3は、実施形態に係る端末装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a terminal device according to an embodiment. 図4は、抽象化情報データベースの一例を示す図である。FIG. 4 is a diagram showing an example of an abstract information database. 図5は、実施形態に係るサーバ装置の構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of a server device according to an embodiment. 図6は、利用者情報データベースの一例を示す図である。FIG. 6 is a diagram showing an example of a user information database. 図7は、履歴情報データベースの一例を示す図である。FIG. 7 is a diagram showing an example of a history information database. 図8は、モデル情報データベースの一例を示す図である。FIG. 8 is a diagram showing an example of a model information database. 図9は、実施形態に係る処理手順を示すフローチャートである。FIG. 9 is a flowchart showing the processing procedure according to the embodiment. 図10は、ハードウェア構成の一例を示す図である。FIG. 10 is a diagram showing an example of a hardware configuration.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. In addition, in the following embodiments, the same parts are given the same reference numerals, and redundant explanations will be omitted.

〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、メガネ型ウェアラブルデバイスの視野画像において、ユーザが見たくないものを抽象化する場合を例に挙げて説明する。
[1. Overview of information processing method]
First, with reference to FIG. 1, an overview of an information processing method performed by an information processing apparatus according to an embodiment will be described. FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. In addition, in FIG. 1, a case will be described as an example in which what the user does not want to see in the visual field image of a glasses-type wearable device is abstracted.

図1に示すように、情報処理システム1は、端末装置10とサーバ装置100とARゴーグル200(ARグラス)とを含む。端末装置10とサーバ装置100とARゴーグル200とは、ネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。本実施形態では、端末装置10及びARゴーグル200は、サーバ装置100と連携する。端末装置10とARゴーグル200とは、互いに連携する。ARゴーグル200は、端末装置10を介して、サーバ装置100と通信可能であってもよい。 As shown in FIG. 1, the information processing system 1 includes a terminal device 10, a server device 100, and AR goggles 200 (AR glasses). The terminal device 10, the server device 100, and the AR goggles 200 are connected to be able to communicate with each other by wire or wirelessly via a network N (see FIG. 2). In this embodiment, the terminal device 10 and the AR goggles 200 cooperate with the server device 100. The terminal device 10 and the AR goggles 200 cooperate with each other. The AR goggles 200 may be able to communicate with the server device 100 via the terminal device 10.

端末装置10は、利用者U(ユーザ)により使用されるスマートフォンやタブレット端末等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。 The terminal device 10 is a smart device such as a smartphone or a tablet terminal used by a user U (user), and is connected to an arbitrary server device via a wireless communication network such as 4G (Generation) or LTE (Long Term Evolution). This is a mobile terminal device that can communicate. Further, the terminal device 10 has a screen such as a liquid crystal display, which has a touch panel function, and displays data such as content through a tap operation, a slide operation, a scroll operation, etc. from the user U using a finger or a stylus. Accepts various operations on. Note that an operation performed on an area of the screen where content is displayed may be an operation on the content. Further, the terminal device 10 may be not only a smart device but also an information processing device such as a desktop PC (Personal Computer) or a notebook PC.

サーバ装置100は、各利用者Uの端末装置10と連携し、各利用者Uの端末装置10に対して、各種アプリケーション(以下、アプリ)等に対するAPI(Application Programming Interface)サービス等と、各種データを提供する情報処理装置であり、コンピュータやクラウドシステム等により実現される。 The server device 100 cooperates with the terminal device 10 of each user U, and provides API (Application Programming Interface) services for various applications (hereinafter referred to as apps) and various data to the terminal device 10 of each user U. It is an information processing device that provides information, and is realized using computers, cloud systems, etc.

また、サーバ装置100は、各利用者Uの端末装置10に対して、オンラインで何らかのWebサービスを提供する情報処理装置であってもよい。例えば、サーバ装置100は、Webサービスとして、インターネット接続、検索サービス、SNS(Social Networking Service)、電子商取引(EC:Electronic Commerce)、電子決済、オンラインゲーム、オンラインバンキング、オンライントレーディング、宿泊・チケット予約、動画・音楽配信、ニュース、地図、ルート検索、経路案内、路線情報、運行情報、天気予報等のサービスを提供してもよい。実際には、サーバ装置100は、上記のようなWebサービスを提供する各種サーバと連携し、Webサービスを仲介してもよいし、Webサービスの処理を担当してもよい。 Further, the server device 100 may be an information processing device that provides some kind of web service online to the terminal device 10 of each user U. For example, the server device 100 provides web services such as Internet connection, search service, SNS (Social Networking Service), electronic commerce (EC), electronic payment, online games, online banking, online trading, accommodation/ticket reservation, Services such as video/music distribution, news, maps, route searches, route guidance, route information, operation information, weather forecasts, etc. may be provided. In reality, the server device 100 may cooperate with various servers that provide the above-mentioned Web services, mediate the Web services, or may be in charge of processing the Web services.

なお、サーバ装置100は、利用者Uに関する利用者情報を取得可能である。例えば、サーバ装置100は、利用者Uの性別、年代、居住地域といった利用者Uの属性に関する情報を取得する。そして、サーバ装置100は、利用者Uを示す識別情報(利用者ID等)とともに利用者Uの属性に関する情報を記憶して管理する。 Note that the server device 100 can acquire user information regarding the user U. For example, the server device 100 acquires information regarding user U's attributes such as user U's gender, age, and residential area. The server device 100 stores and manages identification information indicating the user U (user ID, etc.) as well as information regarding attributes of the user U.

また、サーバ装置100は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、サーバ装置100は、利用者Uの位置や日時の履歴である位置履歴を端末装置10から取得する。また、サーバ装置100は、利用者Uが入力した検索クエリの履歴である検索履歴を検索サーバ(検索エンジン)から取得する。また、サーバ装置100は、利用者Uが閲覧したコンテンツの履歴である閲覧履歴をコンテンツサーバから取得する。また、サーバ装置100は、利用者Uの商品購入や決済処理の履歴である購入履歴(決済履歴)を電子商取引サーバや決済処理サーバから取得する。また、サーバ装置100は、利用者Uのマーケットプレイスへの出品の履歴である出品履歴や販売履歴を電子商取引サーバや決済処理サーバから取得してもよい。また、サーバ装置100は、利用者Uの投稿の履歴である投稿履歴を口コミの投稿サービスを提供する投稿サーバやSNSサーバから取得する。なお、上記の各種サーバ等は、サーバ装置100自体であってもよい。すなわち、サーバ装置100が上記の各種サーバ等として機能してもよい。 Further, the server device 100 acquires various kinds of history information (log data) indicating the actions of the user U from the terminal device 10 of the user U or from various servers based on the user ID or the like. For example, the server device 100 acquires a location history, which is a history of user U's location, date and time, from the terminal device 10. The server device 100 also acquires a search history, which is a history of search queries input by the user U, from a search server (search engine). Additionally, the server device 100 acquires a viewing history, which is a history of content viewed by the user U, from the content server. The server device 100 also acquires a purchase history (payment history) that is a history of product purchases and payment processing by the user U from the electronic commerce server and the payment processing server. Further, the server device 100 may acquire the listing history and the sales history, which are the listing history of the user U on the marketplace, from the electronic commerce server or the payment processing server. The server device 100 also acquires a posting history, which is a history of postings by the user U, from a posting server or SNS server that provides a word-of-mouth posting service. Note that the various servers described above may be the server device 100 itself. That is, the server device 100 may function as the various servers described above.

ARゴーグル200(ARグラス)は、AR(Augmented Reality:拡張現実)機能を有するメガネ型ウェアラブルデバイス(Wearable Device)である。そのため、ARゴーグル200は、カメラ機能や近距離通信機能を有する。さらに、オーディオ機能やマイク機能、画像認識機能や音声認識機能等を有していてもよい。ARゴーグル200は、仮想空間やメタバースにも対応可能である。なお、実際には、ARゴーグル200は、AR機能に限らず、VR(Virtual Reality:仮想現実)機能やMR(Mixed Reality:複合現実)機能を有していてもよい。また、ARゴーグル200は、AR機能を搭載したスマートグラスであってもよいし、AR/VRヘッドセット、VRゴーグルとARゴーグルを兼用するヘッドマウントディスプレイ(HMD)等であってもよい。また、ARゴーグル200は、非透過ディスプレイの機器だけではなく、ホロレンズのようなシースルー型のAR機器であってもよい。 The AR goggles 200 (AR glasses) are glasses-type wearable devices having an AR (Augmented Reality) function. Therefore, the AR goggles 200 have a camera function and a short-range communication function. Furthermore, it may have an audio function, a microphone function, an image recognition function, a voice recognition function, etc. The AR goggles 200 can also be used in virtual spaces and metaverses. Note that in reality, the AR goggles 200 are not limited to the AR function, and may have a VR (Virtual Reality) function or an MR (Mixed Reality) function. Further, the AR goggles 200 may be smart glasses equipped with an AR function, an AR/VR headset, a head mounted display (HMD) that serves as both VR goggles and AR goggles, or the like. Further, the AR goggles 200 may be not only a device with a non-transparent display, but also a see-through type AR device such as a hololens.

〔1-1.抽象化AR〕
本実施形態では、利用者U(ユーザ)はARゴーグル200をかけている。ARゴーグル200は、搭載されたカメラで視野画像を撮影する。このとき、視野画像内に、利用者Uが許容できない/見たくない所定の対象物が映し出されることがある。利用者UがARゴーグル200をかけている場合、視野画像が利用者Uの視界となる上に、利用者Uと画面との距離が近いため、利用者Uは目をそらすことや目をそむけることができず、視野画像に表示されたものは見たくないものであっても見ざるを得ない。
[1-1. Abstraction AR]
In this embodiment, user U (user) is wearing AR goggles 200. The AR goggles 200 captures field-of-view images with a mounted camera. At this time, a predetermined object that the user U cannot tolerate/does not want to see may be displayed in the visual field image. When the user U is wearing the AR goggles 200, the field of view image becomes the user U's field of view, and the distance between the user U and the screen is close, so the user U is unable to look away or look away. They cannot help but see what is displayed in the visual field image even if they do not want to see it.

しかし、ARゴーグル200の視野画像内から対象物を完全に消去(不可視化)してしまうと、実際には対象物が目の前に存在しているのに利用者Uだけに見えないという状況になり、場合によっては好ましくない事態が発生し得る。また、視野画像内の対象物に単にモザイクをかける(隠ぺい)だけだと、モザイクをかける対象物が一意に特定されていなければ、どういう理由でモザイクをかけたのか、また実際にはそこに何がいる/あるのか利用者Uにはわからないため、利用者Uが視野画像から得られる情報に不足が生じる。 However, if the object is completely erased (made invisible) from the visual field image of the AR goggles 200, the object may actually exist in front of the user's eyes, but only the user U cannot see it. In some cases, undesirable situations may occur. In addition, if you simply mosaic (conceal) the object in the visual field image, if the object to be mosaiced is not uniquely identified, you will not know why it was mosaiced or what is actually there. Since the user U does not know whether there is a person or not, there is a lack of information that the user U can obtain from the visual field image.

本実施形態では、利用者U(ユーザ)の端末装置10は、ARゴーグル200と連携して、ARゴーグル200の視野画像(ARゴーグル200をかけた利用者Uの視野画像)を取得し、取得された視野画像から所定の対象物OBJを検出し、検出された所定の対象物OBJを抽象化した抽象化コンテンツABS(抽象化アイコン等)を視野画像内の当該所定の対象物OBJが所在する位置に重畳して表示する。 In this embodiment, the terminal device 10 of the user U (user) cooperates with the AR goggles 200 to acquire a visual field image of the AR goggles 200 (a visual field image of the user U wearing the AR goggles 200). A predetermined object OBJ is detected from the visual field image, and abstracted content ABS (abstracted icon, etc.) that is an abstraction of the detected predetermined object OBJ is generated when the predetermined object OBJ in the visual field image is located. Display superimposed on the position.

例えば、図1に示すように、利用者U(ユーザ)の端末装置10は、近距離無線通信により(又は通信ケーブルを介して)、ARゴーグル200のカメラ機能で撮影された視野画像を取得する(ステップS1)。 For example, as shown in FIG. 1, the terminal device 10 of the user U (user) acquires a visual field image taken by the camera function of the AR goggles 200 by short-range wireless communication (or via a communication cable). (Step S1).

続いて、利用者Uの端末装置10は、取得された視野画像の中から、あらかじめ設定された所定の対象物OBJを特定して抽出する(ステップS2)。 Subsequently, the terminal device 10 of the user U identifies and extracts a predetermined object OBJ set in advance from the acquired visual field image (step S2).

所定の対象物OBJとして、例えば利用者Uが直視したくないものや、嫌悪感を催すもの、精神的な苦痛を感じるもの等が挙げられる。なお、所定の対象物OBJの設定については、例えばアプリインストール時の初期設定でもよいし、アプリやソフトウェアによる自動更新等により設定していてもよいし、利用者Uが端末装置10を用いて手動で設定してもよい。また、端末装置10は、利用者Uのユーザ属性(ユーザセグメント、ユーザペルソナでも可)や過去の履歴、現在の設定内容等から、機械学習等により、ユーザごとに所定の対象物OBJを推定してもよい。 Examples of the predetermined object OBJ include things that the user U does not want to look at directly, things that cause disgust, things that cause mental pain, and the like. Note that the setting of the predetermined object OBJ may be set, for example, by initial setting at the time of installing the application, by automatic update by the application or software, or by manual setting by the user U using the terminal device 10. You can also set it with Furthermore, the terminal device 10 estimates a predetermined object OBJ for each user using machine learning or the like based on the user attributes of the user U (user segments or user personas are also possible), past history, current settings, etc. It's okay.

このとき、利用者Uの端末装置10は、カテゴリごとに対象物OBJを特定して抽出してもよい。対象物OBJのカテゴリとして、例えば虫・動物、ごみ・ほこり、絵・写真・映像、文字・文章、特定の思想・信条に基づく表現等が挙げられる。また、対象物OBJのカテゴリは、大分類、中分類、小分類のように細分化してもよい。例えば、大分類は「生物」、中分類は「虫」、小分類は「虫の種類・名称」としてもよい。 At this time, the terminal device 10 of the user U may specify and extract the object OBJ for each category. Categories of object OBJ include, for example, insects/animals, garbage/dust, pictures/photos/videos, characters/text, expressions based on specific ideas/beliefs, and the like. Further, the category of the object OBJ may be subdivided into major classification, medium classification, and small classification. For example, the major classification may be "organisms," the medium classification may be "insects," and the minor classification may be "types and names of insects."

続いて、利用者Uの端末装置10は、所定の対象物OBJに対する利用者Uの許容度や、対象物OBJを抽象化する際の抽象度を判定する(ステップS3)。 Subsequently, the terminal device 10 of the user U determines the tolerance level of the user U with respect to the predetermined object OBJ and the degree of abstraction when abstracting the object OBJ (step S3).

このとき、端末装置10は、利用者Uから、手動で所定の対象物OBJの設定とともに許容度や抽象度の設定を受け付けてもよいし、利用者Uのユーザ属性や過去の履歴、現在の設定内容等から、機械学習等により、ユーザごとに許容度や抽象度を推定してもよい。 At this time, the terminal device 10 may manually accept the settings of the predetermined object OBJ as well as the tolerance level and abstraction level from the user U, or the user U's user attributes, past history, and current settings. The tolerance level and abstraction level may be estimated for each user based on the settings and the like using machine learning or the like.

続いて、利用者Uの端末装置10は、利用者Uごとの許容度や抽象度に応じて、所定の対象物OBJを抽象化するため、所定の対象物OBJを抽象化した抽象化コンテンツABSを選択又は生成する(ステップS4)。 Subsequently, in order to abstract the predetermined object OBJ according to the tolerance level and abstraction level of each user U, the terminal device 10 of the user U generates an abstracted content ABS that abstracts the predetermined object OBJ. is selected or generated (step S4).

このとき、端末装置10は、利用者Uごとの許容度や抽象度に応じて、所定の対象物OBJを段階的に抽象化してもよい。例えば、端末装置10は、所定の対象物OBJと抽象化コンテンツABSとの組を許容度や抽象度ごとにあらかじめ記憶しておき、許容度や抽象度に応じて所定の対象物OBJに対応する抽象化コンテンツABSを選択してもよいし、許容度や抽象度に応じて所定の対象物OBJから抽象化コンテンツABSを自動生成してもよい。また、端末装置10は、許容度や抽象度に応じて、所定の対象物OBJを段階的にぼやかしたり透過率・透過度を変更したりしてもよい。 At this time, the terminal device 10 may abstract the predetermined object OBJ in stages according to the tolerance and abstraction level of each user U. For example, the terminal device 10 stores in advance a set of a predetermined object OBJ and abstracted content ABS for each tolerance level and abstraction level, and corresponds to the predetermined object OBJ according to the tolerance level and abstraction level. The abstracted content ABS may be selected, or the abstracted content ABS may be automatically generated from a predetermined object OBJ according to the tolerance level and abstraction level. Further, the terminal device 10 may gradually blur the predetermined object OBJ or change the transmittance/transparency depending on the tolerance level or abstraction level.

続いて、利用者Uの端末装置10は、ARゴーグル200の視野画像内に含まれる所定の対象物OBJを、抽象化コンテンツABSに変換する(ステップS5)。 Subsequently, the terminal device 10 of the user U converts a predetermined object OBJ included in the visual field image of the AR goggles 200 into abstracted content ABS (step S5).

このとき、端末装置10は、近距離無線通信により(又は通信ケーブルを介して)、ARゴーグル200に、所定の対象物OBJを抽象化した抽象化コンテンツABSに関する情報を提供する。例えば、端末装置10は、所定の対象物OBJと抽象化コンテンツABSとの対応関係や、抽象化コンテンツABSの表示位置や表示指示に関する情報を提供する。なお、端末装置10は、抽象化コンテンツABSが通常とは異なる特殊な表示態様で表示される場合には、その表示態様に関する情報も提供する。 At this time, the terminal device 10 provides the AR goggles 200 with information regarding the abstracted content ABS, which is an abstraction of the predetermined object OBJ, by short-range wireless communication (or via a communication cable). For example, the terminal device 10 provides information regarding the correspondence between the predetermined object OBJ and the abstracted content ABS, the display position and display instructions of the abstracted content ABS. Note that when the abstracted content ABS is displayed in a special display mode different from normal, the terminal device 10 also provides information regarding the display mode.

続いて、ARゴーグル200は、視野画像内に含まれる所定の対象物OBJが所在する位置に、当該所定の対象物OBJを抽象化した抽象化コンテンツABSを重畳して表示する(ステップS6)。 Next, the AR goggles 200 displays abstracted content ABS, which is an abstraction of the predetermined object OBJ, in a superimposed manner at a position where the predetermined object OBJ included in the visual field image is located (step S6).

なお、実際には、利用者Uの端末装置10が、ARゴーグル200の視野画像内に含まれる所定の対象物OBJが所在する位置に、当該所定の対象物OBJを抽象化した抽象化コンテンツABSを重畳して表示するように表示制御してもよい。 Note that, in reality, the terminal device 10 of the user U displays abstracted content ABS, which is an abstraction of the predetermined object OBJ, at a position where the predetermined object OBJ included in the visual field image of the AR goggles 200 is located. The display may be controlled to be displayed in a superimposed manner.

続いて、利用者Uの端末装置10は、ネットワークN(図2参照)を介して、サーバ装置100と連携し、所定の対象物OBJの抽象化に関する情報をサーバ装置100に提供する(ステップS7)。 Subsequently, the terminal device 10 of the user U cooperates with the server device 100 via the network N (see FIG. 2) and provides the server device 100 with information regarding the abstraction of the predetermined object OBJ (step S7 ).

このとき、サーバ装置100は、ネットワークN(図2参照)を介して、不特定多数の利用者Uの端末装置10から、所定の対象物OBJの抽象化に関する情報を収集する。あるいは、サーバ装置100は、連合学習(Federated Learning)により、データを集約せずに分散した状態で機械学習を行う場合、通信部110を介して、利用者Uの端末装置10から、学習結果(差分データや特徴量)を取得してもよい。 At this time, the server device 100 collects information regarding the abstraction of the predetermined object OBJ from the terminal devices 10 of an unspecified number of users U via the network N (see FIG. 2). Alternatively, when performing machine learning in a distributed state without aggregating data by federated learning, the server device 100 transmits learning results ( (difference data or feature amounts) may also be acquired.

続いて、サーバ装置100は、機械学習により、利用者Uのユーザ属性(ユーザセグメント、ユーザペルソナでも可)ごとの所定の対象物OBJの抽象化について学習し、学習結果に基づく推定モデルを生成/更新する(ステップS8)。 Next, the server device 100 uses machine learning to learn about the abstraction of a predetermined object OBJ for each user attribute (user segment, user persona) of the user U, and generates an estimation model based on the learning results. Update (step S8).

例えば、サーバ装置100は、ユーザ属性と所定の対象物OBJと許容度や抽象度と抽象化コンテンツABSとの組を学習データとして学習し、ユーザ属性と所定の対象物OBJを入力すると、許容度や抽象度と抽象化コンテンツABSとを出力する推定モデルを生成/更新する。あるいは、サーバ装置100は、連合学習により、利用者Uの端末装置10から取得した学習結果を統合し、推定モデルを生成/更新してもよい。 For example, the server device 100 learns a set of a user attribute, a predetermined object OBJ, a tolerance or an abstraction level, and an abstracted content ABS as learning data, and when the user attribute and a predetermined object OBJ are input, the tolerance An estimation model is generated/updated to output the level of abstraction, abstraction level, and abstracted content ABS. Alternatively, the server device 100 may integrate the learning results obtained from the terminal device 10 of the user U through federated learning, and generate/update the estimated model.

続いて、サーバ装置100は、ネットワークN(図2参照)を介して、各利用者Uの端末装置10に、生成/更新された推定モデルを提供する(ステップS9)。 Subsequently, the server device 100 provides the generated/updated estimation model to the terminal device 10 of each user U via the network N (see FIG. 2) (step S9).

これにより、利用者Uの端末装置10は、ステップS2において、取得された視野画像の中から所定の対象物OBJを特定して抽出する際、サーバ装置100から提供された推定モデルに基づいて所定の対象物OBJを推定し、推定された所定の対象物OBJを特定して抽出できるようになる。 Thereby, when identifying and extracting the predetermined object OBJ from the acquired visual field image in step S2, the terminal device 10 of the user U uses the predetermined object OBJ based on the estimation model provided from the server device 100. It becomes possible to estimate the target object OBJ and identify and extract the estimated predetermined target object OBJ.

なお、サーバ装置100は、生成/更新された推定モデル自体に限らず、推定モデルに該当するサーバ装置100側のグローバルモデル(中央モデル)と、利用者Uの端末装置10側のローカルモデル(子モデル)とのパラメータの差分を提供してもよい。例えば、サーバ装置100は、連合学習により、データを集約せずに分散した状態で機械学習を行う場合、サーバ装置100側の共有モデル/統合モデルの修正点に関する情報を利用者Uの端末装置10に提供してもよい。 Note that the server device 100 is not limited to the generated/updated estimation model itself, but also the global model (central model) on the server device 100 side corresponding to the estimation model and the local model (child model) on the terminal device 10 side of the user U. model). For example, when performing machine learning in a distributed state without aggregating data by federated learning, the server device 100 transmits information regarding correction points of the shared model/integrated model on the server device 100 side to the user U's terminal device 10. may be provided to

〔1-2.追加・補足事項〕
本実施形態では、利用者Uの端末装置10は、ARゴーグル200の視野画像内に含まれる所定の対象物OBJを、抽象化コンテンツABSに変更する。そして、利用者Uの端末装置10は、抽出された対象物OBJを抽象化した抽象化コンテンツABSを視野画像内に表示する。例えば、利用者Uの端末装置10は、対象物OBJが所在する位置に抽象化コンテンツABSを重畳して表示する。
[1-2. Additional/supplementary matters]
In the present embodiment, the terminal device 10 of the user U changes the predetermined object OBJ included in the visual field image of the AR goggles 200 to the abstracted content ABS. Then, the terminal device 10 of the user U displays the abstracted content ABS, which is an abstraction of the extracted object OBJ, within the visual field image. For example, the terminal device 10 of the user U displays the abstracted content ABS superimposed on the position where the object OBJ is located.

なお、抽象化コンテンツABSは、2次元(2D)画像でもよいし、3次元(3D)画像や3Dオブジェクト・3Dモデル(3D形状)でもよい。また、利用者Uの端末装置10は、対象物OBJから抽象化コンテンツABSを自動生成してもよい。 Note that the abstracted content ABS may be a two-dimensional (2D) image, a three-dimensional (3D) image, or a 3D object/3D model (3D shape). Further, the terminal device 10 of the user U may automatically generate the abstracted content ABS from the object OBJ.

また、利用者Uの端末装置10は、所定の対象物OBJを抽出する際、視野画像内での大きさや距離等に応じて所定の対象物OBJを抽出するか否か判断してもよい。具体的には、利用者Uの端末装置10は、視野画像内において利用者Uが所定の対象物OBJをそれとして認識(視認)できる大きさや距離等である場合に、所定の対象物OBJを抽象化すべき対象物OBJとして抽出するようにしてもよい。例えば、利用者Uの端末装置10は、所定の対象物OBJが視野画像内において利用者Uから所定の範囲内(例えば距離2m以内)に存在し、所定の大きさ(例えば全長1cm以上)で表示される場合に、所定の対象物OBJを抽象化すべき対象物OBJとして抽出するようにしてもよい。 Further, when extracting the predetermined object OBJ, the terminal device 10 of the user U may determine whether to extract the predetermined object OBJ according to the size, distance, etc. within the visual field image. Specifically, the terminal device 10 of the user U detects a predetermined object OBJ when the size, distance, etc. are such that the user U can recognize (visually recognize) the predetermined object OBJ as such in the visual field image. The object may be extracted as an object OBJ to be abstracted. For example, the terminal device 10 of the user U detects that a predetermined object OBJ exists within a predetermined range (for example, within a distance of 2 m) from the user U in the visual field image, and has a predetermined size (for example, a total length of 1 cm or more). When displayed, a predetermined object OBJ may be extracted as an object OBJ to be abstracted.

また、利用者Uの端末装置10は、許容度や抽象度に応じて、抽出された所定の対象物OBJを「文字」に変更し、対象物OBJが所在する位置に「文字」を重畳して表示してもよい。例えば、利用者Uの端末装置10は、許容度や抽象度に応じて、抽出された所定の対象物OBJが所在する位置に当該対象物OBJの「名称」又は「カテゴリ名」を重畳して表示してもよい。 In addition, the terminal device 10 of the user U changes the extracted predetermined object OBJ to a "character" according to the tolerance level and abstraction level, and superimposes the "character" at the position where the object OBJ is located. may be displayed. For example, the terminal device 10 of the user U superimposes the "name" or "category name" of a predetermined extracted object OBJ at the location where the extracted object OBJ is located, depending on the tolerance level and abstraction level. May be displayed.

あるいは、利用者Uの端末装置10は、許容度や抽象度に応じて、抽出された所定の対象物OBJを「カテゴリを示す画像」に変更し、対象物OBJが所在する位置に「カテゴリを示す画像」を重畳して表示してもよい。カテゴリを示す画像については、カテゴリごとに、あらかじめ設定されていてもよい。 Alternatively, the terminal device 10 of the user U changes the extracted predetermined object OBJ to an "image indicating a category" according to the tolerance level and abstraction level, and changes the "category" to the position where the object OBJ is located. may be displayed in a superimposed manner. Images indicating categories may be set in advance for each category.

また、利用者Uの端末装置10は、抽出された所定の対象物OBJが虫である場合、対象物OBJを「虫を抽象化したアイコン・ピクトグラム」に変更し、対象物OBJが所在する位置に「虫を抽象化したアイコン・ピクトグラム」を重畳して表示してもよい。基本的に、特定の虫が苦手な人は、昆虫全般が苦手と推測されるため、他の虫の画像に変更するのではなく、虫を抽象化した何かしらのピクトグラムに変更すると好ましい。このとき、利用者Uの端末装置10は、全ての虫が対象物OBJとなっていなければ、全ての虫を一律に「虫を抽象化したアイコン・ピクトグラム」に変更するのではなく、対象物OBJとして設定されている虫だけを「虫を抽象化したアイコン・ピクトグラム」に変更し、対象物OBJが所在する位置に「虫を抽象化したアイコン・ピクトグラム」を重畳して表示してもよい。また、利用者Uの端末装置10は、「虫を抽象化したアイコン・ピクトグラム」を重畳して表示する際に、自然界に存在する通常の「虫を抽象化したアイコン・ピクトグラム」の画像ではなく、明らかに変更されたことがわかる不自然な「虫を抽象化したアイコン・ピクトグラム」の画像を表示してもよい。例えば、通常の数倍の大きさの「虫を抽象化したアイコン・ピクトグラム」や、現在位置の環境には存在しない色・形状の「虫を抽象化したアイコン・ピクトグラム」、発光・点滅する「虫を抽象化したアイコン・ピクトグラム」等を表示してもよい。 Further, when the extracted predetermined object OBJ is an insect, the terminal device 10 of the user U changes the object OBJ to an "icon/pictogram that abstracts an insect", and changes the location where the object OBJ is located. An "icon/pictogram that abstracts insects" may be superimposed and displayed. Basically, it is assumed that people who are not good with a particular insect are not good with insects in general, so it is preferable to change the image to some kind of pictogram that abstracts the insect, rather than changing it to an image of another insect. At this time, unless all insects are object OBJs, user U's terminal device 10 does not uniformly change all insects to "icons/pictograms that abstract insects", but instead changes them to object object OBJ. You may change only the insect set as OBJ to an "icon/pictogram that abstracts insects" and display the "icon/pictogram that abstracts insects" superimposed on the location where the object OBJ is located. . Furthermore, when displaying an "icon/pictogram that abstracts insects" superimposed on the terminal device 10 of user U, the user U's terminal device 10 displays an image of "an icon/pictogram that abstracts insects" instead of an image of a normal "icon/pictogram that abstracts insects" that exists in the natural world. , an image of an unnatural "icon pictogram of an abstract insect" that clearly shows that it has been changed may be displayed. For example, an ``icon/pictogram that abstracts an insect'' that is several times larger than the normal size, an ``icon/pictogram that abstracts an insect'' with a color or shape that does not exist in the current environment, or an ``icon/pictogram that abstracts an insect'' that emits light or blinks. An icon or pictogram of an abstract insect may be displayed.

あるいは、利用者Uの端末装置10は、許容度や抽象度に応じて、抽出された所定の対象物OBJを「戯画化されたイラスト」に変更し、対象物OBJが所在する位置に「戯画化されたイラスト」を重畳して表示してもよい。戯画化されたイラストについては、対象物OBJ又はカテゴリごとにあらかじめ設定されていてもよいし、画像変換や機械学習等により対象物OBJから自動的に変換してもよい。また、利用者Uの端末装置10は、許容度や抽象度に応じて、抽出された所定の対象物OBJを「ピクトグラム」に変更し、対象物OBJが所在する位置に「ピクトグラム」を重畳して表示してもよい。 Alternatively, the terminal device 10 of the user U changes the extracted predetermined object OBJ to a "caricatured illustration" according to the tolerance level or abstraction level, and changes the extracted predetermined object OBJ to a "caricature illustration" at the location where the object OBJ is located. It is also possible to superimpose and display "illustrations". The caricatured illustrations may be set in advance for each object OBJ or category, or may be automatically converted from the object OBJ by image conversion, machine learning, or the like. Further, the terminal device 10 of the user U changes the extracted predetermined object OBJ to a "pictogram" according to the tolerance level and abstraction level, and superimposes the "pictogram" at the position where the object OBJ is located. may be displayed.

なお、利用者Uの端末装置10は、抽象化コンテンツABSの抽象度について、利用者Uから、対象物OBJを抽象化する際の抽象度に関する設定を受け付けてもよい。例えば、利用者Uの端末装置10は、利用者Uから、どれくらい抽象度を上げるとよいかの設定を受け付けてもよい。また、利用者Uの端末装置10は、抽象度に応じて、抽象化コンテンツABSを選択又は自動生成してもよい。 Note that the terminal device 10 of the user U may receive a setting regarding the abstraction level of the abstracted content ABS from the user U regarding the abstraction level when abstracting the object OBJ. For example, the terminal device 10 of the user U may receive a setting from the user U regarding how high the level of abstraction should be increased. Further, the terminal device 10 of the user U may select or automatically generate the abstracted content ABS depending on the level of abstraction.

また、利用者Uの端末装置10は、対象物OBJがどのくらい嫌いかを利用者Uに問合せ、その回答に応じて、抽象度を変化させてもよい。また、利用者Uの端末装置10は、抽象化コンテンツABSが好きか嫌いかを利用者Uに問合せ、その回答に応じて、さらに抽象度を変化させてもよい。このとき、利用者Uの端末装置10は、利用者Uからの回答を学習し、学習結果に基づいて、抽象度を変化させてもよい。 Further, the terminal device 10 of the user U may inquire of the user U how much he dislikes the object OBJ, and change the abstraction level depending on the answer. Further, the terminal device 10 of the user U may inquire of the user U whether he likes or dislikes the abstracted content ABS, and further changes the degree of abstraction depending on the answer. At this time, the terminal device 10 of the user U may learn the answers from the user U and change the level of abstraction based on the learning results.

あるいは、利用者Uの端末装置10は、抽象化コンテンツABSの抽象度を推定・算出して自動的に設定してもよい。例えば、利用者Uの端末装置10は、利用者Uのユーザ属性から、利用者Uの好み等を推定して、推定された好み等に応じて、カテゴリごとに許容スコアを算出してもよい。このとき、利用者Uの端末装置10は、許容スコアが高くなるにつれて、抽象度を低くする。 Alternatively, the terminal device 10 of the user U may estimate and calculate the abstraction level of the abstracted content ABS and automatically set it. For example, the terminal device 10 of the user U may estimate the preferences of the user U from the user attributes of the user U, and calculate an allowable score for each category according to the estimated preferences. . At this time, the user U's terminal device 10 lowers the level of abstraction as the tolerance score increases.

また、利用者Uの端末装置10は、利用者Uのコンテキスト(context)を推定して、所定の対象物OBJを、推定されたコンテキストに応じた抽象化コンテンツABSに変換してもよい。例えば、利用者Uの端末装置10は、自宅/社内/街中/公共の場/車内といった利用者Uの位置(所在)のコンテキストに応じて、抽象化コンテンツABSを設定・変更してもよい。また、利用者Uの端末装置10は、一人の時(周囲に人がいない)/大勢の時(周囲に大勢いる)のような、利用者Uの周囲のコンテキストに応じて、抽象化コンテンツABSを設定・変更してもよい。 Further, the terminal device 10 of the user U may estimate the context of the user U and convert the predetermined object OBJ into the abstracted content ABS according to the estimated context. For example, the terminal device 10 of the user U may set or change the abstracted content ABS depending on the context of the user U's location (location) such as at home/in the office/in the city/in a public place/in a car. In addition, the terminal device 10 of the user U can display the abstracted content ABS according to the surrounding context of the user U, such as when the user U is alone (there are no people around) or when there are many people around the user U (there are many people around). may be set or changed.

あるいは、利用者Uの端末装置10は、出社・出勤前/移動中/勤務時間中/食事中/打合せ中/退社・退勤後といった、利用者Uの時間(時間帯)のコンテキストに応じて、抽象化コンテンツABSを設定・変更してもよい。また、利用者Uの端末装置10は、平日や土日祝祭日といった曜日のコンテキストに応じて、抽象化コンテンツABSを設定・変更してもよい。 Alternatively, the terminal device 10 of the user U may operate according to the context of the time (time zone) of the user U, such as coming to work/before going to work/while moving/during working hours/during a meal/during a meeting/leaving/after leaving work. The abstracted content ABS may be set/changed. Further, the terminal device 10 of the user U may set or change the abstracted content ABS depending on the context of the day of the week, such as weekdays, weekends, holidays, etc.

また、利用者Uの端末装置10は、抽出された対象物OBJが「実物体」なのか、AR機能等により画面に表示されている「仮想物体」かに応じて、抽象化コンテンツABSを設定・変更してもよい。すなわち、対象物OBJは、実物体に限らず、AR(拡張現実)等で表示されたデータであってもよい。利用者Uの端末装置10は、利用者Uがその対象物OBJを本当に嫌っているならば、仮想物体でも抽象化コンテンツABSに変化させる。それほど嫌っていなければ/好き嫌いの程度によっては、実物体は抽象化コンテンツABSに変化させ、仮想物体はそのまま表示させる。本当に嫌っているかどうかは、利用者Uに直接問い合わせてもよいし、抽象化コンテンツABSの抽象度の設定から推測してもよい。 In addition, the terminal device 10 of the user U sets the abstracted content ABS depending on whether the extracted object OBJ is a "real object" or a "virtual object" displayed on the screen by an AR function etc.・You may change it. That is, the object OBJ is not limited to a real object, but may be data displayed using AR (augmented reality) or the like. If the user U really dislikes the object OBJ, the terminal device 10 of the user U changes even a virtual object into the abstracted content ABS. If you don't dislike it that much/depending on the degree of your dislike, the real object will be changed to the abstracted content ABS, and the virtual object will be displayed as is. Whether the user U really dislikes the content may be inquired directly from the user U, or may be inferred from the setting of the abstraction level of the abstracted content ABS.

なお、上記の端末装置10の処理は、端末装置10と連携するサーバ装置100が行ってもよいし、ARゴーグル200が行ってもよい。また、ARゴーグル200は、ネットワークN(図2参照)を介して端末装置10と連携してもよいし、端末装置10を経由せずにネットワークN(図2参照)を介してサーバ装置100と直接連携してもよい。 Note that the above processing of the terminal device 10 may be performed by the server device 100 that cooperates with the terminal device 10, or may be performed by the AR goggles 200. Further, the AR goggles 200 may cooperate with the terminal device 10 via the network N (see FIG. 2), or may communicate with the server device 100 via the network N (see FIG. 2) without going through the terminal device 10. You can also collaborate directly.

〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係るサーバ装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、端末装置10とサーバ装置100とARゴーグル200とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the information processing system 1 including the server device 100 according to the embodiment will be described using FIG. 2. FIG. 2 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 2, the information processing system 1 according to the embodiment includes a terminal device 10, a server device 100, and AR goggles 200. These various devices are connected via a network N so that they can communicate by wire or wirelessly. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10及びARゴーグル200をそれぞれ1台ずつ示したが、これはあくまでも例示であって限定されるものではなく、それぞれ2台以上であってもよい。 Furthermore, the number of devices included in the information processing system 1 shown in FIG. 2 is not limited to what is illustrated. For example, in FIG. 2, one terminal device 10 and one AR goggle 200 are shown to simplify the illustration, but this is just an example and is not limited to two or more of each. Good too.

端末装置10は、利用者Uによって使用される情報処理装置である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、通信機能を備えたゲーム機やAV機器、カーナビゲーションシステム、スマートウォッチ等である。また、端末装置10は、IOT(Internet of Things)に対応した住宅・建物、車、家電製品、電子機器等であってもよい。 The terminal device 10 is an information processing device used by the user U. For example, the terminal device 10 may be a smart device such as a smartphone or a tablet terminal, a feature phone, a PC (Personal Computer), a PDA (Personal Digital Assistant), a game console or AV device with a communication function, a car navigation system, a smart watch, etc. It is. Further, the terminal device 10 may be a house/building, a car, a home appliance, an electronic device, etc. compatible with IOT (Internet of Things).

また、ARゴーグル200は、ARグラスに限らず、スマートグラスやヘッドマウントディスプレイ等のメガネ型ウェアラブルデバイス等であってもよい。 Further, the AR goggles 200 are not limited to AR glasses, and may be glasses-type wearable devices such as smart glasses or a head-mounted display.

また、かかる端末装置10及びARゴーグル200は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、サーバ装置100と通信することができる。 Further, the terminal device 10 and the AR goggles 200 are connected to wireless communication networks such as LTE (Long Term Evolution), 4G (4th Generation), and 5G (5th Generation: 5th generation mobile communication system), Bluetooth (registered trademark), It is possible to connect to the network N and communicate with the server device 100 via short-range wireless communication such as a wireless LAN (Local Area Network).

サーバ装置100は、例えばPCやブレードサーバ(blade server)等のコンピュータ、あるいはメインフレーム又はワークステーション等である。なお、サーバ装置100は、クラウドコンピューティングにより実現されてもよい。 The server device 100 is, for example, a computer such as a PC or a blade server, or a mainframe or a workstation. Note that the server device 100 may be realized by cloud computing.

〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Configuration example of terminal device]
Next, the configuration of the terminal device 10 will be explained using FIG. 3. FIG. 3 is a diagram showing a configuration example of the terminal device 10. As shown in FIG. As shown in FIG. 3, the terminal device 10 includes a communication section 11, a display section 12, an input section 13, a positioning section 14, a sensor section 20, a control section 30 (controller), and a storage section 40. Be prepared.

(通信部11)
通信部11は、ネットワークN(図2参照)と有線又は無線で接続され、ネットワークNを介して、サーバ装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication Department 11)
The communication unit 11 is connected to a network N (see FIG. 2) by wire or wirelessly, and transmits and receives information to and from the server device 100 via the network N. For example, the communication unit 11 is realized by a NIC (Network Interface Card), an antenna, or the like.

(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display section 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic electro-luminescent display (EL display). Further, the display unit 12 is a touch panel type display, but is not limited to this.

(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスである。例えば、入力部13は、文字や数字等を入力するためのボタン等を有する。なお、入力部13は、入出力ポート(I/O port)やUSB(Universal Serial Bus)ポート等であってもよい。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。また、入力部13は、利用者Uから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input section 13)
The input unit 13 is an input device that receives various operations from the user U. For example, the input unit 13 includes buttons for inputting characters, numbers, and the like. Note that the input unit 13 may be an input/output port (I/O port), a USB (Universal Serial Bus) port, or the like. Further, when the display section 12 is a touch panel display, a part of the display section 12 functions as the input section 13. Further, the input unit 13 may be a microphone or the like that receives voice input from the user U. The microphone may be wireless.

(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives a signal (radio wave) sent from a GPS (Global Positioning System) satellite, and based on the received signal, determines position information (for example, latitude and longitude). That is, the positioning unit 14 positions the terminal device 10 . Note that GPS is just one example of GNSS (Global Navigation Satellite System).

また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。 Further, the positioning unit 14 can measure the position using various methods other than GPS. For example, the positioning unit 14 may use various communication functions of the terminal device 10 to measure the position as an auxiliary positioning means for position correction and the like, as described below.

(Wi-Fi測位)
例えば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi-Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 positions the terminal device 10 using the Wi-Fi (registered trademark) communication function of the terminal device 10 or the communication network provided by each communication company. Specifically, the positioning unit 14 performs Wi-Fi communication, etc., and determines the position of the terminal device 10 by measuring the distance to nearby base stations and access points.

(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth(登録商標)機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
Further, the positioning unit 14 may use the Bluetooth (registered trademark) function of the terminal device 10 to measure the position. For example, the positioning unit 14 measures the position of the terminal device 10 by connecting to a beacon transmitter connected by a Bluetooth (registered trademark) function.

(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(geomagnetic positioning)
Furthermore, the positioning unit 14 positions the terminal device 10 based on the geomagnetic pattern of the structure measured in advance and the geomagnetic sensor included in the terminal device 10 .

(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Further, for example, if the terminal device 10 has an RFID (Radio Frequency Identification) tag function equivalent to a contactless IC card used at station ticket gates, stores, etc., or has a function to read an RFID tag. In this case, the location where the terminal device 10 used the terminal device 10 is recorded together with the information that the payment was made. The positioning unit 14 may measure the position of the terminal device 10 by acquiring such information. Further, the position may be determined by an optical sensor, an infrared sensor, or the like provided in the terminal device 10.

測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。 The positioning unit 14 may position the terminal device 10 using one or a combination of the above-mentioned positioning means, if necessary.

(センサ部20)
センサ部20は、端末装置10に搭載又は接続される各種のセンサを含む。なお、接続は、有線接続、無線接続を問わない。例えば、センサ類は、ウェアラブルデバイスやワイヤレスデバイス等、端末装置10以外の検知装置であってもよい。図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。
(sensor section 20)
The sensor unit 20 includes various sensors mounted on or connected to the terminal device 10. Note that the connection may be a wired connection or a wireless connection. For example, the sensors may be a detection device other than the terminal device 10, such as a wearable device or a wireless device. In the example shown in FIG. 3, the sensor unit 20 includes an acceleration sensor 21, a gyro sensor 22, an atmospheric pressure sensor 23, an air temperature sensor 24, a sound sensor 25, an optical sensor 26, a magnetic sensor 27, and an image sensor ( camera) 28.

なお、上記した各センサ21~28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21~28のうちの一部を備える構成であってもよいし、各センサ21~28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。 Note that each of the sensors 21 to 28 described above is merely an example and is not limited to the above. That is, the sensor section 20 may be configured to include a portion of each of the sensors 21 to 28, or may include other sensors such as a humidity sensor in addition to or instead of each of the sensors 21 to 28. .

加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、及び、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。 The acceleration sensor 21 is, for example, a three-axis acceleration sensor, and detects the physical movement of the terminal device 10, such as the moving direction, speed, and acceleration of the terminal device 10. The gyro sensor 22 detects physical movements of the terminal device 10 such as tilt in three axes directions based on the angular velocity of the terminal device 10 and the like. The atmospheric pressure sensor 23 detects the atmospheric pressure around the terminal device 10, for example.

端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21~23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。 Since the terminal device 10 is equipped with the above-mentioned acceleration sensor 21, gyro sensor 22, atmospheric pressure sensor 23, etc., it is possible to implement technologies such as pedestrian autonomous navigation (PDR) using these sensors 21 to 23, etc. It becomes possible to measure the position of the terminal device 10 using the . This makes it possible to obtain indoor position information that is difficult to obtain using positioning systems such as GPS.

例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、利用者Uの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、利用者Uの端末装置10が存在する高度やフロアの階数を知ることもできる。 For example, a pedometer using the acceleration sensor 21 can calculate the number of steps, walking speed, and distance walked. Furthermore, by using the gyro sensor 22, it is possible to know the direction of travel of the user U, the direction of the line of sight, and the inclination of the user's body. Further, from the atmospheric pressure detected by the atmospheric pressure sensor 23, it is also possible to know the altitude and the number of floors where the terminal device 10 of the user U is located.

気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。 The temperature sensor 24 detects, for example, the temperature around the terminal device 10. The sound sensor 25 detects, for example, sounds around the terminal device 10. The optical sensor 26 detects the illuminance around the terminal device 10 . The magnetic sensor 27 detects, for example, the earth's magnetism around the terminal device 10. The image sensor 28 captures an image of the surroundings of the terminal device 10.

上記した気圧センサ23、気温センサ24、音センサ25、光センサ26及び画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。 The above-mentioned atmospheric pressure sensor 23, temperature sensor 24, sound sensor 25, optical sensor 26, and image sensor 28 each detect atmospheric pressure, temperature, sound, and illuminance, and capture images of the surroundings, so that the terminal device 10 It is possible to detect the surrounding environment and situation. Furthermore, it is possible to improve the accuracy of the location information of the terminal device 10 based on the environment and situation around the terminal device 10.

(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33とを有する。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input/output port, etc., and various circuits. Further, the control unit 30 may be configured with hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control section 30 includes a transmitting section 31, a receiving section 32, and a processing section 33.

(送信部31)
送信部31は、例えば入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって検知された各種情報、測位部14によって測位された端末装置10の位置情報等を、通信部11を介してサーバ装置100へ送信することができる。
(Transmission unit 31)
The transmitting unit 31 receives, for example, various information input by the user U using the input unit 13, various information detected by the sensors 21 to 28 mounted on or connected to the terminal device 10, and information measured by the positioning unit 14. The location information of the terminal device 10 and the like can be transmitted to the server device 100 via the communication unit 11.

(受信部32)
受信部32は、通信部11を介して、サーバ装置100から提供される各種情報や、サーバ装置100からの各種情報の要求を受信することができる。
(Receiving unit 32)
The receiving unit 32 can receive various information provided from the server device 100 and requests for various information from the server device 100 via the communication unit 11 .

(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信されたサーバ装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire terminal device 10, including the display unit 12 and the like. For example, the processing unit 33 can output various information transmitted by the transmitting unit 31 and various information received from the server device 100 by the receiving unit 32 to the display unit 12 for display.

また、処理部33は、取得部33Aと、設定部33Bと、推定部33Cと、特定部33Dと、生成部33Eと、変換部33Fと、表示制御部33Gとを有する。 Furthermore, the processing section 33 includes an acquisition section 33A, a setting section 33B, an estimating section 33C, a specifying section 33D, a generating section 33E, a converting section 33F, and a display control section 33G.

(取得部33A)
取得部33Aは、メガネ型ウェアラブルデバイスの視界画像を取得する。例えば、取得部33Aは、メガネ型ウェアラブルデバイスのカメラ機能で撮影された視野画像を取得する。
(Acquisition unit 33A)
The acquisition unit 33A acquires a visual field image of the glasses-type wearable device. For example, the acquisition unit 33A acquires a visual field image captured by the camera function of the glasses-type wearable device.

(設定部33B)
設定部33Bは、利用者U(ユーザ)が許容できない対象物OBJの設定を受け付ける。また、設定部33Bは、対象物OBJに対する利用者Uの許容度に関する設定を受け付ける。また、設定部33Bは、対象物OBJを抽象化する際の抽象度に関する設定を受け付ける。
(Setting section 33B)
The setting unit 33B accepts settings for objects OBJ that are unacceptable to the user U. Further, the setting unit 33B receives settings regarding the user U's tolerance level for the object OBJ. Further, the setting unit 33B receives settings regarding the level of abstraction when abstracting the object OBJ.

また、設定部33Bは、利用者Uに対象物OBJの好みの度合いを問合せ、利用者Uから対象物OBJの好みの度合いの問合せに対する回答を受け付ける。さらに、設定部33Bは、利用者Uに変換後の抽象化コンテンツABSの好みの度合いを問合せ、利用者Uから変換後の抽象化コンテンツABSの好みの度合いの問合せに対する回答を受け付ける。そして、設定部33Bは、それぞれの回答に応じて、対象物OBJを抽象化する際の抽象度を変化させる。 Further, the setting unit 33B inquires of the user U about the degree of liking of the object OBJ, and receives an answer from the user U to the inquiry about the degree of liking of the object OBJ. Further, the setting unit 33B inquires of the user U about the degree of preference for the converted abstract content ABS, and receives a response from the user U to the inquiry regarding the degree of preference for the converted abstract content ABS. Then, the setting unit 33B changes the degree of abstraction when abstracting the object OBJ according to each answer.

(推定部33C)
推定部33Cは、利用者Uの属性情報を始め、各種情報(利用者情報、履歴情報等)から、利用者Uが許容できない対象物OBJを推定する。また、推定部33Cは、利用者Uの属性情報を始め、各種情報(利用者情報、履歴情報等)から、対象物OBJに対する利用者Uの許容度を推定する。また、推定部33Cは、利用者Uの属性情報を始め、各種情報(利用者情報、履歴情報等)から、対象物OBJを抽象化する際の抽象度を推定する。
(Estimation unit 33C)
The estimation unit 33C estimates an object OBJ that is unacceptable to the user U from various information (user information, history information, etc.) including the user U's attribute information. Furthermore, the estimating unit 33C estimates the user U's tolerance to the object OBJ based on the user U's attribute information and various other information (user information, history information, etc.). Furthermore, the estimation unit 33C estimates the degree of abstraction when abstracting the object OBJ from various information (user information, history information, etc.) including the attribute information of the user U.

(特定部33D)
特定部33Dは、メガネ型ウェアラブルデバイスの視界画像の中から、利用者Uが許容できない対象物OBJを特定して抽出する。
(Specific part 33D)
The specifying unit 33D specifies and extracts an object OBJ that is unacceptable to the user U from the visual field image of the glasses-type wearable device.

(生成部33E)
生成部33Eは、対象物OBJから抽象化コンテンツABSを自動的に生成する。例えば、生成部33Eは、対象物OBJに対する利用者Uの許容度に関する設定に応じて、対象物OBJから抽象化コンテンツABSを自動的に生成する。また、生成部33Eは、対象物OBJを抽象化する際の抽象度に関する設定に応じて、対象物OBJから抽象化コンテンツABSを自動的に生成する。
(Generation unit 33E)
The generation unit 33E automatically generates abstract content ABS from the object OBJ. For example, the generation unit 33E automatically generates the abstracted content ABS from the object OBJ according to the user U's settings regarding the tolerance level for the object OBJ. Further, the generation unit 33E automatically generates the abstracted content ABS from the object OBJ according to the setting regarding the abstraction level when abstracting the object OBJ.

(変換部33F)
変換部33Fは、対象物OBJを利用者Uが許容可能な抽象化コンテンツABSに変換する。例えば、変換部33Fは、許容度が設定されている場合、対象物OBJを、許容度に応じて選択又は生成された抽象化コンテンツABSに変換する。また、変換部33Fは、抽象度が設定されている場合、対象物OBJを、抽象度に応じて選択又は生成された抽象化コンテンツABSに変換する。
(Converter 33F)
The conversion unit 33F converts the object OBJ into abstracted content ABS acceptable to the user U. For example, when the tolerance level is set, the conversion unit 33F converts the object OBJ into abstracted content ABS that is selected or generated according to the tolerance level. Furthermore, when the degree of abstraction is set, the conversion unit 33F converts the object OBJ into abstracted content ABS selected or generated according to the degree of abstraction.

(表示制御部33G)
表示制御部33Gは、メガネ型ウェアラブルデバイスの視界画像内の対象物OBJの位置に抽象化コンテンツABSを重畳して表示する。
(Display control unit 33G)
The display control unit 33G displays the abstracted content ABS in a superimposed manner at the position of the object OBJ in the visual field image of the glasses-type wearable device.

このとき、表示制御部33Gは、利用者Uの許容度及び抽象度に関する設定に応じて、抽象化コンテンツABSの表示態様についても自動的に決定してもよい。 At this time, the display control unit 33G may also automatically determine the display mode of the abstracted content ABS according to the user U's settings regarding the tolerance and abstraction level.

(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Storage unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. Ru. The storage unit 40 stores various programs, various data, and the like.

例えば、記憶部40は、対象物OBJと抽象化コンテンツABSとの組を記憶する。また、記憶部40は、許容度や抽象度など、各種の設定を記憶する。図4に示すように、記憶部40は、抽象化情報データベース40Aを有する。 For example, the storage unit 40 stores a set of object OBJ and abstracted content ABS. The storage unit 40 also stores various settings such as tolerance and abstraction level. As shown in FIG. 4, the storage unit 40 has an abstract information database 40A.

(抽象化情報データベース40A)
抽象化情報データベース40Aは、所定の対象物の抽象化に関する各種情報を記憶する。図4は、抽象化情報データベース40Aの一例を示す図である。図4に示した例では、抽象化情報データベース40Aは、「対象物」、「許容度」、「抽象度」、「抽象化コンテンツ」、「表示態様」といった項目を有する。
(Abstract information database 40A)
The abstraction information database 40A stores various information regarding abstraction of a predetermined object. FIG. 4 is a diagram showing an example of the abstract information database 40A. In the example shown in FIG. 4, the abstract information database 40A has items such as "object", "tolerance", "abstraction level", "abstract content", and "display mode".

「対象物」は、所定の対象物OBJを識別するための識別情報を示す。また、「許容度」は、所定の対象物OBJに対する利用者Uの許容度を示す。また、「抽象度」は、対象物OBJを抽象化する際の抽象度を示す。また、「抽象化コンテンツ」は、所定の対象物OBJを抽象化した抽象化コンテンツABS(抽象化アイコン等)を識別するための識別情報、又は抽象化コンテンツABS自体(画像データ等)を示す。また、「表示態様」は、ARゴーグル200の視野画像内での抽象化コンテンツABSの表示態様を示す。 “Object” indicates identification information for identifying a predetermined object OBJ. Further, "tolerance" indicates the user U's tolerance to the predetermined object OBJ. Moreover, "abstraction level" indicates the abstraction level when abstracting the object OBJ. Further, "abstracted content" indicates identification information for identifying abstracted content ABS (abstracted icon, etc.) that is an abstraction of a predetermined object OBJ, or the abstracted content ABS itself (image data, etc.). Furthermore, the “display mode” indicates the display mode of the abstracted content ABS within the visual field image of the AR goggles 200.

例えば、図4に示す例において、対象物「OBJ#1」により識別される所定の対象物OBJは、「許容度#1」及び「抽象度#1」に応じて、所定の対象物OBJを抽象化した抽象化コンテンツ「ABS#1」に変換され、ARゴーグル200の視野画像内で「表示態様#1」に従って表示されることを示す。 For example, in the example shown in FIG. 4, the predetermined object OBJ identified by the object "OBJ#1" is This indicates that the content is converted into abstracted content "ABS #1" and displayed in the visual field image of the AR goggles 200 according to "display mode #1."

ここで、図4に示す例では、「OBJ#1」、「許容度#1」、「抽象度#1」、「ABS#1」及び「表示態様#1」といった抽象的な値を用いて図示するが、「OBJ#1」、「許容度#1」、「抽象度#1」、「ABS#1」及び「表示態様#1」には、具体的な文字列や数値等の情報が記憶されるものとする。 Here, in the example shown in FIG. As shown in the figure, "OBJ #1", "Tolerance #1", "Abstract level #1", "ABS #1" and "Display mode #1" contain information such as specific character strings and numerical values. shall be remembered.

なお、抽象化情報データベース40Aは、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、抽象化情報データベース40Aは、所定の対象物OBJのカテゴリ(分類)に関する情報を記憶してもよい。また、抽象化情報データベース40Aは、所定の対象物OBJを抽象化する際のコンテキスト(context)に関する情報を記憶してもよい。また、抽象化情報データベース40Aは、ARゴーグル200の視野画像内における所定の対象物OBJの位置、大きさ及び距離に関する情報を記憶してもよい。 Note that the abstract information database 40A is not limited to the above, and may store various information depending on the purpose. For example, the abstract information database 40A may store information regarding the category (classification) of a predetermined object OBJ. Further, the abstraction information database 40A may store information regarding a context when abstracting a predetermined object OBJ. Further, the abstracted information database 40A may store information regarding the position, size, and distance of a predetermined object OBJ within the visual field image of the AR goggles 200.

〔4.サーバ装置の構成例〕
次に、図5を用いて、実施形態に係るサーバ装置100の構成について説明する。図5は、実施形態に係るサーバ装置100の構成例を示す図である。図5に示すように、サーバ装置100は、通信部110と、記憶部120と、制御部130とを備える。
[4. Configuration example of server device]
Next, the configuration of the server device 100 according to the embodiment will be described using FIG. 5. FIG. 5 is a diagram showing a configuration example of the server device 100 according to the embodiment. As shown in FIG. 5, the server device 100 includes a communication section 110, a storage section 120, and a control section 130.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線又は無線で接続される。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). Further, the communication unit 110 is connected to the network N (see FIG. 2) by wire or wirelessly.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD、SSD、光ディスク等の記憶装置によって実現される。図5に示すように、記憶部120は、利用者情報データベース121と、履歴情報データベース122と、モデル情報データベース123とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD, an SSD, or an optical disk. As shown in FIG. 5, the storage unit 120 includes a user information database 121, a history information database 122, and a model information database 123.

(利用者情報データベース121)
利用者情報データベース121は、利用者Uに関する利用者情報を記憶する。例えば、利用者情報データベース121は、利用者Uの属性等の種々の情報を記憶する。図6は、利用者情報データベース121の一例を示す図である。図6に示した例では、利用者情報データベース121は、「利用者ID(Identifier)」、「年齢」、「性別」、「自宅」、「勤務地」、「興味」といった項目を有する。
(User information database 121)
The user information database 121 stores user information regarding the user U. For example, the user information database 121 stores various information such as user U's attributes. FIG. 6 is a diagram showing an example of the user information database 121. In the example shown in FIG. 6, the user information database 121 includes items such as "user ID (identifier),""age,""gender,""home,""worklocation," and "interest."

「利用者ID」は、利用者Uを識別するための識別情報を示す。なお、「利用者ID」は、利用者Uの連絡先(電話番号、メールアドレス等)であってもよいし、利用者Uの端末装置10を識別するための識別情報であってもよい。 “User ID” indicates identification information for identifying user U. Note that the "user ID" may be user U's contact information (telephone number, email address, etc.), or may be identification information for identifying user U's terminal device 10.

また、「年齢」は、利用者IDにより識別される利用者Uの年齢を示す。なお、「年齢」は、利用者Uの具体的な年齢(例えば35歳など)を示す情報であってもよいし、利用者Uの年代(例えば30代など)を示す情報であってもよい。あるいは、「年齢」は、利用者Uの生年月日を示す情報であってもよいし、利用者Uの世代(例えば80年代生まれなど)を示す情報であってもよい。また、「性別」は、利用者IDにより識別される利用者Uの性別を示す。 Moreover, "age" indicates the age of the user U identified by the user ID. Note that the "age" may be information indicating the specific age of the user U (for example, 35 years old, etc.), or may be information indicating the age of the user U (for example, 30s, etc.) . Alternatively, the "age" may be information indicating the date of birth of the user U, or may be information indicating the generation of the user U (for example, born in the 1980s). Furthermore, “gender” indicates the gender of the user U identified by the user ID.

また、「自宅」は、利用者IDにより識別される利用者Uの自宅の位置情報を示す。なお、図6に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 Moreover, "home" indicates the location information of the home of the user U identified by the user ID. In the example shown in FIG. 6, "home" is illustrated as an abstract code such as "LC11," but it may also be latitude and longitude information. Furthermore, for example, "home" may be a region name or address.

また、「勤務地」は、利用者IDにより識別される利用者Uの勤務地(学生の場合は学校)の位置情報を示す。なお、図6に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。 Moreover, "work place" indicates the location information of the work place (school in the case of a student) of the user U identified by the user ID. In the example shown in FIG. 6, the "work location" is illustrated as an abstract code such as "LC12," but it may also be latitude and longitude information. Further, for example, the "work location" may be a region name or address.

また、「興味」は、利用者IDにより識別される利用者Uの興味を示す。すなわち、「興味」は、利用者IDにより識別される利用者Uが関心の高い対象を示す。例えば、「興味」は、利用者Uが検索エンジンに入力して検索した検索クエリ(キーワード)等であってもよい。なお、図6に示す例では、「興味」は、各利用者Uに1つずつ図示するが、複数であってもよい。 Moreover, "interest" indicates the interest of the user U identified by the user ID. That is, "interest" indicates an object in which the user U identified by the user ID has a high interest. For example, "interest" may be a search query (keyword) that the user U inputs into a search engine. In the example shown in FIG. 6, one "interest" is shown for each user U, but there may be a plurality of "interests".

例えば、図6に示す例において、利用者ID「U1」により識別される利用者Uの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、自宅が「LC11」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、勤務地が「LC12」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、「スポーツ」に興味があることを示す。 For example, in the example shown in FIG. 6, the age of the user U identified by the user ID "U1" is "20s", and the gender is "male". Further, for example, the user U identified by the user ID "U1" indicates that his home is "LC11". Further, for example, the user U identified by the user ID "U1" indicates that the work location is "LC12". Further, for example, the user U identified by the user ID "U1" indicates that he is interested in "sports."

ここで、図6に示す例では、「U1」、「LC11」及び「LC12」といった抽象的な値を用いて図示するが、「U1」、「LC11」及び「LC12」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。 Here, in the example shown in FIG. 6, abstract values such as "U1", "LC11", and "LC12" are used for illustration, but "U1", "LC11", and "LC12" have specific values. It is assumed that information such as character strings and numerical values is stored. Below, abstract values may be illustrated in diagrams related to other information as well.

なお、利用者情報データベース121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、利用者情報データベース121は、利用者Uの端末装置10に関する各種情報を記憶してもよい。また、利用者情報データベース121は、利用者Uのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。例えば、利用者情報データベース121は、氏名、家族構成、出身地(地元)、職業、職位、収入、資格、居住形態(戸建、マンション等)、車の有無、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、習い事(場所、時間帯等)、趣味、興味、ライフスタイル等の情報を記憶してもよい。 Note that the user information database 121 is not limited to the above, and may store various information depending on the purpose. For example, the user information database 121 may store various information regarding the terminal device 10 of the user U. In addition, the user information database 121 includes information such as demographic (demographic attributes), psychographic (psychological attributes), geographic (geographical attributes), behavioral (behavioral attributes), etc. of user U. Information regarding attributes may also be stored. For example, the user information database 121 includes name, family composition, place of birth (locality), occupation, position, income, qualifications, type of residence (single-family house, condominium, etc.), presence or absence of a car, commuting/commuting time, commuting/commuting, etc. Memorizes information such as routes, commuter pass sections (stations, lines, etc.), frequently used stations (other than the stations closest to your home or work), lessons (location, time zone, etc.), hobbies, interests, lifestyle, etc. It's okay.

(履歴情報データベース122)
履歴情報データベース122は、利用者Uの行動を示す履歴情報(ログデータ)に関する各種情報を記憶する。図7は、履歴情報データベース122の一例を示す図である。図7に示した例では、履歴情報データベース122は、「利用者ID」、「位置履歴」、「検索履歴」、「閲覧履歴」、「購入履歴」、「投稿履歴」といった項目を有する。
(History information database 122)
The history information database 122 stores various information related to history information (log data) indicating the actions of the user U. FIG. 7 is a diagram showing an example of the history information database 122. In the example shown in FIG. 7, the history information database 122 has items such as "user ID", "location history", "search history", "browsing history", "purchase history", and "posting history".

「利用者ID」は、利用者Uを識別するための識別情報を示す。また、「位置履歴」は、利用者Uの位置や移動の履歴である位置履歴を示す。また、「検索履歴」は、利用者Uが入力した検索クエリの履歴である検索履歴を示す。また、「閲覧履歴」は、利用者Uが閲覧したコンテンツの履歴である閲覧履歴を示す。また、「購入履歴」は、利用者Uによる購入の履歴である購入履歴を示す。また、「投稿履歴」は、利用者Uによる投稿の履歴である投稿履歴を示す。なお、「投稿履歴」は、利用者Uの所有物に関する質問を含んでいてもよい。 “User ID” indicates identification information for identifying user U. Further, “position history” indicates a position history that is a history of the user U's position and movement. Further, “search history” indicates a search history that is a history of search queries input by the user U. In addition, “browsing history” indicates a browsing history that is a history of contents that the user U has viewed. Moreover, "purchase history" indicates a purchase history that is a history of purchases by user U. Moreover, "posting history" indicates a posting history that is a history of postings by user U. Note that the "posting history" may include questions regarding user U's belongings.

例えば、図7に示す例において、利用者ID「U1」により識別される利用者Uは、「位置履歴#1」の通りに移動し、「検索履歴#1」の通りに検索し、「閲覧履歴#1」の通りにコンテンツを閲覧し、「購入履歴#1」の通りに所定の店舗等で所定の商品等を購入し、「投稿履歴#1」の通りに投稿したことを示す。 For example, in the example shown in FIG. 7, the user U identified by the user ID "U1" moves as per "location history #1", searches as per "search history #1", and searches as per "view history #1". This indicates that the content is viewed according to "history #1", a predetermined product, etc. is purchased at a predetermined store etc. according to "purchase history #1", and the content is posted according to "post history #1".

ここで、図7に示す例では、「U1」、「位置履歴#1」、「検索履歴#1」、「閲覧履歴#1」、「購入履歴#1」及び「投稿履歴#1」といった抽象的な値を用いて図示するが、「U1」、「位置履歴#1」、「検索履歴#1」、「閲覧履歴#1」、「購入履歴#1」及び「投稿履歴#1」には、具体的な文字列や数値等の情報が記憶されるものとする。 Here, in the example shown in FIG. 7, abstracts such as "U1", "location history #1", "search history #1", "browsing history #1", "purchase history #1" and "posting history #1" are used. Although the figures are illustrated using ``U1'', ``Location history #1'', ``Search history #1'', ``Browsing history #1'', ``Purchase history #1'' and ``Posting history #1'', It is assumed that information such as specific character strings and numerical values is stored.

なお、履歴情報データベース122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、履歴情報データベース122は、利用者Uの所定のサービスの利用履歴等を記憶してもよい。また、履歴情報データベース122は、利用者Uの実店舗の来店履歴又は施設の訪問履歴等を記憶してもよい。また、履歴情報データベース122は、利用者Uの端末装置10を用いた決済(電子決済)での決済履歴等を記憶してもよい。 Note that the history information database 122 is not limited to the above, and may store various information depending on the purpose. For example, the history information database 122 may store the user U's usage history of a predetermined service. Further, the history information database 122 may store the user U's visit history to a physical store, visit history to a facility, or the like. Further, the history information database 122 may store the payment history of user U's payment using the terminal device 10 (electronic payment).

(モデル情報データベース123)
モデル情報データベース123は、所定の対象物OBJを抽象化した抽象化コンテンツABSを推定する推定モデルに関する各種情報を記憶する。図8は、モデル情報データベース123の一例を示す図である。図8に示した例では、モデル情報データベース123は、「ユーザ属性」、「モデル」、「対象物」、「許容度」、「抽象度」、「中所化コンテンツ」、「表示態様」といった項目を有する。
(Model information database 123)
The model information database 123 stores various information regarding an estimation model for estimating abstracted content ABS obtained by abstracting a predetermined object OBJ. FIG. 8 is a diagram showing an example of the model information database 123. In the example shown in FIG. 8, the model information database 123 includes information such as "user attributes,""model,""object,""tolerance,""level of abstraction,""centeredcontent," and "display mode." Has items.

「ユーザ属性」は、利用者Uのユーザ属性(ユーザセグメント、ユーザペルソナでも可)を示す。また、「モデル」は、ユーザ属性ごとに、所定の対象物OBJを抽象化した抽象化コンテンツABSを推定する推定モデルを識別するための識別情報、又は推定モデル自体を示す。また、「対象物」は、所定の対象物OBJを識別するための識別情報を示す。また、「許容度」は、所定の対象物OBJに対する利用者Uの許容度を示す。また、「抽象度」は、対象物OBJを抽象化する際の抽象度を示す。また、「抽象化コンテンツ」は、所定の対象物OBJを抽象化した抽象化コンテンツABS(抽象化アイコン等)を識別するための識別情報、又は抽象化コンテンツABS自体(画像データ等)を示す。また、「表示態様」は、ARゴーグル200の視野画像内での抽象化コンテンツABSの表示態様を示す。 “User attribute” indicates the user attribute of user U (user segment or user persona is also possible). Further, "model" indicates identification information for identifying an estimation model for estimating abstracted content ABS obtained by abstracting a predetermined object OBJ, or the estimation model itself for each user attribute. Further, "object" indicates identification information for identifying a predetermined object OBJ. Further, "tolerance" indicates the user U's tolerance to the predetermined object OBJ. Moreover, "abstraction level" indicates the abstraction level when abstracting the object OBJ. Further, "abstracted content" indicates identification information for identifying abstracted content ABS (abstracted icon, etc.) that is an abstraction of a predetermined object OBJ, or the abstracted content ABS itself (image data, etc.). Furthermore, the “display mode” indicates the display mode of the abstracted content ABS within the visual field image of the AR goggles 200.

例えば、図8に示す例において、ユーザ属性「属性#A」を有する利用者Uには、推定モデル「モデル#A」が提供され、この推定モデル「モデル#A」に対し、対象物「OBJ#A1」により識別される所定の対象物OBJを入力すると、「許容度#A1」、「抽象度#A1」、抽象化コンテンツ「ABS#A1」及び「表示態様#A1」が出力されることを示す。 For example, in the example shown in FIG. 8, the user U who has the user attribute "Attribute #A" is provided with the estimated model "Model #A", and the estimated model "Model #A" is When a predetermined object OBJ identified by "#A1" is input, "tolerance level #A1", "abstraction level #A1", abstracted content "ABS#A1" and "display mode #A1" are output. shows.

ここで、図8に示す例では、「属性#A」、「モデル#A」、「OBJ#A1」、「許容度#A1」、「抽象度#A1」、「ABS#A1」及び「表示態様#A1」といった抽象的な値を用いて図示するが、「属性#A」、「モデル#A」、「OBJ#A1」、「許容度#A1」、「抽象度#A1」、「ABS#A1」及び「表示態様#A1」には、具体的な文字列や数値等の情報が記憶されるものとする。 In the example shown in FIG. 8, "attribute #A", "model #A", "OBJ #A1", "tolerance #A1", "abstraction level #A1", "ABS #A1", Although the diagram uses abstract values such as "Aspect #A1", "Attribute #A", "Model #A", "OBJ #A1", "Tolerance #A1", "Abstract level #A1", "ABS #A1” and “Display mode #A1” store information such as specific character strings and numerical values.

なお、モデル情報データベース123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、モデル情報データベース123は、利用者Uのユーザ属性ではなく、個々の利用者Uを識別するための識別情報を記憶してもよい。すなわち、推定モデルは、ユーザ属性ごとに限らず、個々のユーザごとに用意されていてもよい。例えば、モデル情報データベース123は、ユーザごとにカスタマイズされた推定モデルを記憶してもよい。また、モデル情報データベース123は、所定の対象物OBJのカテゴリ(分類)に関する情報を記憶してもよい。また、モデル情報データベース123は、所定の対象物OBJを抽象化する際のコンテキスト(context)に関する情報を記憶してもよい。 Note that the model information database 123 is not limited to the above, and may store various information depending on the purpose. For example, the model information database 123 may store identification information for identifying each user U instead of user attributes of the user U. That is, the estimation model may be prepared not only for each user attribute but also for each individual user. For example, the model information database 123 may store estimated models customized for each user. Furthermore, the model information database 123 may store information regarding the category (classification) of a predetermined object OBJ. Further, the model information database 123 may store information regarding a context when abstracting a predetermined object OBJ.

(制御部130)
図5に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、サーバ装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図5に示す例では、制御部130は、取得部131と、判定部132と、学習部133と、提供部134とを有する。
(Control unit 130)
Returning to FIG. 5, the explanation will be continued. The control unit 130 is a controller, and controls the server device 100 using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array). This is realized by executing various programs (corresponding to an example of an information processing program) stored in an internal storage device using a storage area such as a RAM as a work area. In the example shown in FIG. 5, the control unit 130 includes an acquisition unit 131, a determination unit 132, a learning unit 133, and a provision unit 134.

(取得部131)
取得部131は、利用者Uにより入力された検索クエリを取得する。例えば、取得部131は、利用者Uが検索エンジン等に検索クエリを入力してキーワード検索を行った際に、通信部110を介して、当該検索クエリを取得する。すなわち、取得部131は、通信部110を介して、利用者Uにより検索エンジンやサイト又はアプリの検索窓に入力されたキーワードを取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires a search query input by the user U. For example, when the user U inputs a search query into a search engine or the like and performs a keyword search, the acquisition unit 131 acquires the search query via the communication unit 110. That is, the acquisition unit 131 acquires, via the communication unit 110, a keyword input by the user U into a search window of a search engine, site, or application.

また、取得部131は、通信部110を介して、利用者Uに関する利用者情報を取得する。例えば、取得部131は、利用者Uの端末装置10から、利用者Uを示す識別情報(利用者ID等)や、利用者Uの位置情報、利用者Uの属性情報等を取得する。また、取得部131は、利用者Uのユーザ登録時に、利用者Uを示す識別情報や、利用者Uの属性情報等を取得してもよい。そして、取得部131は、利用者情報を、記憶部120の利用者情報データベース121に登録する。 The acquisition unit 131 also acquires user information regarding the user U via the communication unit 110. For example, the acquisition unit 131 acquires identification information indicating the user U (user ID, etc.), location information of the user U, attribute information of the user U, etc. from the terminal device 10 of the user U. Further, the acquisition unit 131 may acquire identification information indicating the user U, attribute information of the user U, etc. at the time of user U's user registration. The acquisition unit 131 then registers the user information in the user information database 121 of the storage unit 120.

また、取得部131は、通信部110を介して、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、取得部131は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報を取得する。そして、取得部131は、各種の履歴情報を、記憶部120の履歴情報データベース122に登録する。 Further, the acquisition unit 131 acquires various types of history information (log data) indicating the behavior of the user U via the communication unit 110. For example, the acquisition unit 131 acquires various types of history information indicating the behavior of the user U from the terminal device 10 of the user U or from various servers based on the user ID or the like. The acquisition unit 131 then registers various types of history information in the history information database 122 of the storage unit 120.

また、取得部131は、通信部110を介して、利用者Uの端末装置10から、利用者U(又は利用者Uのユーザ属性)と所定の対象物OBJと許容度と抽象度と抽象化コンテンツABSと表示態様との組を取得してもよい。なお、取得部131は、取得された上記情報を、記憶部120のモデル情報データベース123に登録してもよい。 In addition, the acquisition unit 131 acquires the user U (or the user attribute of the user U), the predetermined object OBJ, the tolerance level, the abstraction level, and the abstraction level from the terminal device 10 of the user U via the communication unit 110. A set of content ABS and display mode may be acquired. Note that the acquisition unit 131 may register the acquired information in the model information database 123 of the storage unit 120.

また、取得部131は、連合学習(Federated Learning)により、データを集約せずに分散した状態で機械学習を行う場合、通信部110を介して、利用者Uの端末装置10から、学習結果(差分データや特徴量)を取得してもよい。 In addition, when performing machine learning in a distributed state without aggregating data by federated learning, the acquisition unit 131 receives learning results ( (difference data or feature amounts) may also be acquired.

(判定部132)
判定部132は、利用者Uを示す識別情報(利用者ID等)から、利用者Uのユーザ属性(ユーザセグメント、ユーザペルソナでも可)を判定する。例えば、判定部132は、各種サービスに共通の利用者IDに紐づけられた各種情報(利用者情報、履歴情報等)に基づいて、利用者Uのユーザ属性を判定する。
(Determination unit 132)
The determining unit 132 determines the user attribute (user segment, user persona, etc.) of the user U from identification information indicating the user U (user ID, etc.). For example, the determination unit 132 determines the user attribute of the user U based on various information (user information, history information, etc.) linked to a user ID common to various services.

(学習部133)
学習部133は、利用者Uのユーザ属性と所定の対象物OBJと許容度と抽象度と抽象化コンテンツABSと表示態様との組を学習データとして機械学習を行い、利用者Uのユーザ属性と所定の対象物OBJとを入力すると、推定結果として許容度と抽象度と抽象化コンテンツABSと表示態様とを出力する推定モデルを生成/更新する。そして、学習部133は、生成/更新された推定モデルを、記憶部120のモデル情報データベース123に登録する。
(Learning Department 133)
The learning unit 133 performs machine learning using a set of user U's user attribute, predetermined object OBJ, tolerance, abstraction level, abstracted content ABS, and display mode as learning data, and learns user U's user attribute and When a predetermined object OBJ is input, an estimation model is generated/updated to output tolerance, abstraction level, abstracted content ABS, and display mode as estimation results. The learning unit 133 then registers the generated/updated estimation model in the model information database 123 of the storage unit 120.

なお、実際には、学習部133は、利用者Uのユーザ属性と所定の対象物OBJと許容度と抽象度とを入力すると、推定結果として抽象化コンテンツABSと表示態様とを出力する推定モデルを生成/更新してもよい。すなわち、入力データと出力データの組合せについては任意である。 Note that, in reality, when the learning unit 133 inputs the user attribute of the user U, the predetermined object OBJ, the tolerance level, and the abstraction level, the learning unit 133 creates an estimation model that outputs the abstracted content ABS and the display mode as the estimation result. may be generated/updated. That is, the combination of input data and output data is arbitrary.

また、学習部133は、連合学習により、利用者Uの端末装置10から取得した学習結果を統合し、推定モデルを生成/更新してもよい。 Further, the learning unit 133 may integrate the learning results obtained from the terminal device 10 of the user U through federated learning, and generate/update the estimated model.

(提供部134)
提供部134は、生成/更新された推定モデルを、対象となるユーザ属性を有する利用者Uに提供する。すなわち、提供部134は、通信部110を介して、ユーザ属性に応じた利用者Uの端末装置10に、生成/更新された推定モデルを配信(配布)する。
(Providing unit 134)
The providing unit 134 provides the generated/updated estimation model to the user U who has the target user attributes. That is, the providing unit 134 delivers (distributes) the generated/updated estimation model to the terminal device 10 of the user U according to the user attribute via the communication unit 110.

また、提供部134は、通信部110を介して、利用者Uの端末装置10に代わり、生成/更新された推定モデルを用いて、所定の対象物OBJに対応する抽象化コンテンツABSを推定し、推定された抽象化コンテンツABSを利用者Uの端末装置10に提供してもよい。 Further, the providing unit 134 estimates the abstracted content ABS corresponding to the predetermined object OBJ via the communication unit 110 on behalf of the terminal device 10 of the user U using the generated/updated estimation model. , the estimated abstracted content ABS may be provided to the terminal device 10 of the user U.

また、提供部134は、連合学習により、データを集約せずに分散した状態で機械学習を行う場合、通信部110を介して、生成/更新された推定モデル自体に限らず、サーバ装置100側の共有モデル/統合モデルの修正点に関する情報を利用者Uの端末装置10に提供してもよい。 In addition, when performing machine learning in a distributed state without aggregating data by federated learning, the providing unit 134 transmits not only the generated/updated estimation model itself but also the server device 100 side via the communication unit 110. The terminal device 10 of the user U may be provided with information regarding correction points of the shared model/integrated model.

〔5.処理手順〕
次に、図9を用いて実施形態に係る端末装置10による処理手順について説明する。図9は、実施形態に係る処理手順を示すフローチャートである。なお、以下に示す処理手順は、端末装置10の制御部30によって繰り返し実行される。
[5. Processing procedure]
Next, a processing procedure by the terminal device 10 according to the embodiment will be described using FIG. 9. FIG. 9 is a flowchart showing the processing procedure according to the embodiment. Note that the processing procedure shown below is repeatedly executed by the control unit 30 of the terminal device 10.

例えば、図9に示すように、端末装置10の設定部33Bは、利用者U(ユーザ)が許容できない対象物OBJ、対象物OBJに対する利用者Uの許容度、及び対象物OBJを抽象化する際の抽象度に関する設定を受け付ける(ステップS101)。 For example, as shown in FIG. 9, the setting unit 33B of the terminal device 10 abstracts the object OBJ that the user U (user) cannot tolerate, the user U's tolerance level for the object OBJ, and the object OBJ. Settings related to the current level of abstraction are accepted (step S101).

あるいは、端末装置10の推定部33Cは、利用者Uの属性情報を始め、各種情報(利用者情報、履歴情報等)から、利用者Uが許容できない対象物OBJ、対象物OBJに対する利用者Uの許容度、及び対象物OBJを抽象化する際の抽象度を推定してもよい。 Alternatively, the estimating unit 33C of the terminal device 10 determines the object OBJ that the user U cannot tolerate, the user U The tolerance level and the degree of abstraction when abstracting the object OBJ may be estimated.

続いて、端末装置10の取得部33Aは、近距離無線通信機能により、又は通信部11を介して、メガネ型ウェアラブルデバイスであるARゴーグル200のカメラ機能で撮影された視野画像を取得する(ステップS102)。 Subsequently, the acquisition unit 33A of the terminal device 10 acquires a visual field image photographed by the camera function of the AR goggles 200, which is a glasses-type wearable device, using the short-range wireless communication function or via the communication unit 11 (step S102).

続いて、端末装置10の特定部33Dは、メガネ型ウェアラブルデバイスであるARゴーグル200の視界画像の中から、利用者Uが許容できない対象物OBJを特定して抽出する(ステップS103)。 Subsequently, the identifying unit 33D of the terminal device 10 identifies and extracts the object OBJ that is unacceptable to the user U from the visual field image of the AR goggles 200, which is a glasses-type wearable device (step S103).

続いて、端末装置10の生成部33Eは、対象物OBJに対する利用者Uの許容度及び抽象度に関する設定に応じて、対象物OBJから抽象化コンテンツABSを自動的に生成する(ステップS104)。 Next, the generation unit 33E of the terminal device 10 automatically generates the abstracted content ABS from the object OBJ according to the user U's settings regarding the tolerance and abstraction level for the object OBJ (step S104).

このとき、生成部33Eは、後述する推定モデルを用いて、対象物OBJから抽象化コンテンツABSを自動的に生成してもよい。 At this time, the generation unit 33E may automatically generate the abstracted content ABS from the object OBJ using an estimation model that will be described later.

続いて、端末装置10の変換部33Fは、対象物OBJを利用者Uが許容可能な抽象化コンテンツABSに変換する(ステップS105)。 Subsequently, the conversion unit 33F of the terminal device 10 converts the object OBJ into abstract content ABS acceptable to the user U (step S105).

続いて、端末装置10の表示制御部33Gは、近距離無線通信機能により、又は通信部11を介して、メガネ型ウェアラブルデバイスであるARゴーグル200の視界画像内の対象物OBJの位置に抽象化コンテンツABSを重畳して表示する(ステップS106)。 Subsequently, the display control unit 33G of the terminal device 10 abstracts the position of the object OBJ in the visual field image of the AR goggles 200, which is a glasses-type wearable device, using the short-range wireless communication function or via the communication unit 11. The content ABS is displayed in a superimposed manner (step S106).

続いて、端末装置10の送信部31は、通信部11を介して、利用者Uと所定の対象物OBJと許容度と抽象度と抽象化コンテンツABSと表示態様との組に関する情報(学習データ)を、サーバ装置100に送信(提供)する(ステップS107)。 Subsequently, the transmitting unit 31 of the terminal device 10 transmits information (learning data) via the communication unit 11 regarding the set of the user U, the predetermined object OBJ, the tolerance level, the abstraction level, the abstracted content ABS, and the display mode. ) is transmitted (provided) to the server device 100 (step S107).

続いて、端末装置10の受信部32は、通信部11を介して、サーバ装置100から、応答として、所定の対象物OBJと許容度と抽象度とを入力すると、推定結果として抽象化コンテンツABSと表示態様とを出力する推定モデルを受信する(ステップS108)。 Subsequently, when the reception unit 32 of the terminal device 10 receives the predetermined object OBJ, tolerance level, and abstraction level as a response from the server device 100 via the communication unit 11, it receives the abstracted content ABS as an estimation result. and a display mode are received (step S108).

続いて、端末装置10の処理部33は、受信した推定モデルを記憶部40に記憶し、生成部33Eが推定モデルを用いて所定の対象物OBJから抽象化コンテンツABSを自動的に生成できるように反映する(ステップS109)。 Subsequently, the processing unit 33 of the terminal device 10 stores the received estimation model in the storage unit 40 so that the generation unit 33E can automatically generate abstracted content ABS from the predetermined object OBJ using the estimation model. (Step S109).

〔6.変形例〕
上述した端末装置10及びサーバ装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[6. Modified example]
The terminal device 10 and server device 100 described above may be implemented in various different forms other than the above embodiments. Therefore, a modification of the embodiment will be described below.

上記の実施形態において、利用者Uの端末装置10が実行している処理の一部又は全部は、実際には、ARゴーグル200が実行してもよい。例えば、ARゴーグル200がスタンドアローン(Stand-alone)で(ARゴーグル200単体で)処理を完結してもよい。この場合、ARゴーグル200に、上記の実施形態における端末装置10の機能が備わっているものとする。 In the embodiment described above, a part or all of the processing that is being executed by the terminal device 10 of the user U may actually be executed by the AR goggles 200. For example, the AR goggles 200 may complete the process stand-alone (AR goggles 200 alone). In this case, it is assumed that the AR goggles 200 have the functions of the terminal device 10 in the above embodiment.

また、上記の実施形態において、利用者Uの端末装置10が実行している処理の一部又は全部は、実際には、サーバ装置100が実行してもよい。例えば、各利用者Uの端末装置10からサーバ装置100にデータを集約して処理してもよい。この場合、サーバ装置100に、上記の実施形態における端末装置10の機能が備わっているものとする。また、上記の実施形態では、サーバ装置100は端末装置10と連携しているため、利用者Uから見れば、端末装置10の処理をサーバ装置100が実行していても変わりはない。 Further, in the above embodiment, part or all of the processing that is being executed by the terminal device 10 of the user U may actually be executed by the server device 100. For example, data may be collected and processed from the terminal device 10 of each user U to the server device 100. In this case, it is assumed that the server device 100 has the functions of the terminal device 10 in the above embodiment. Furthermore, in the embodiment described above, since the server device 100 cooperates with the terminal device 10, from the user U's perspective, there is no difference even if the server device 100 executes the processing of the terminal device 10.

また、実施形態において、サーバ装置100が実行している処理の一部又は全部は、実際には、端末装置10が実行してもよい。例えば、端末装置10は、オンデバイス学習で推定モデルを生成してもよい。すなわち、端末装置10とサーバ装置100とが通信することなく、端末装置10上で処理が完結してもよい。この場合、端末装置10に、上記の実施形態におけるサーバ装置100の機能が備わっているものとする。また、上記の実施形態では、端末装置10はサーバ装置100と連携しているため、利用者Uから見れば、サーバ装置100の処理も端末装置10が実行しているように見える。すなわち、他の観点では、端末装置10は、サーバ装置100を備えているともいえる。 Further, in the embodiment, a part or all of the processing executed by the server device 100 may actually be executed by the terminal device 10. For example, the terminal device 10 may generate the estimation model through on-device learning. That is, the processing may be completed on the terminal device 10 without communication between the terminal device 10 and the server device 100. In this case, it is assumed that the terminal device 10 has the functions of the server device 100 in the above embodiment. Further, in the embodiment described above, since the terminal device 10 cooperates with the server device 100, it appears to the user U that the terminal device 10 is also executing the processing of the server device 100. That is, from another point of view, it can be said that the terminal device 10 includes the server device 100.

また、実施形態において、利用者Uの端末装置10は、所定の対象物として、他のユーザに見せたくないものを設定可能としてもよい。例えば、所定の対象物は、子供に見せたくないものであってもよいし、自社の人間以外に見せたくない社外秘の情報・機密情報であってもよい。この場合、利用者Uは、端末装置10を用いて、自分が許可したユーザ(許可ユーザ)以外の他のユーザには見せたくない所定の対象物を設定する。端末装置10は、許可ユーザ及び当該所定の対象物の設定をサーバ装置100に提供・登録する。サーバ装置100は、当該所定の対象物の設定を、許可ユーザ以外のユーザの端末装置10に反映する。この所定の対象物の設定は、設定した利用者U(及び許可ユーザ)のみ変更可能とし、それ以外のユーザには変更不可としてもよい。例えば、部外者がARゴーグル200をかけて社内見学や工場見学等を行う際に、社外秘の対象物や守秘義務のある対象物については利用者Uが設定した許容度や抽象度に応じて抽象化して表示するようにしてもよい。 Furthermore, in the embodiment, the terminal device 10 of the user U may be able to set, as a predetermined object, something that the user does not want other users to see. For example, the predetermined object may be something that you do not want to show to children, or it may be confidential information or confidential information that you do not want to show to anyone other than your company. In this case, the user U uses the terminal device 10 to set a predetermined object that the user U does not want to show to users other than the users he or she has authorized (authorized users). The terminal device 10 provides and registers the settings of the authorized user and the predetermined object to the server device 100. The server device 100 reflects the settings of the predetermined object on the terminal devices 10 of users other than the authorized users. The settings of this predetermined object may be changed only by the user U (and authorized users) who have set the object, and may not be changed by other users. For example, when an outsider wears the AR goggles 200 to take a tour of the company or a factory, objects that are confidential to the company or that are subject to confidentiality will be treated according to the tolerance and abstraction level set by the user U. It may be displayed in an abstract manner.

〔7.効果〕
上述してきたように、本願に係る情報処理装置(端末装置10、サーバ装置100又はARゴーグル200)は、メガネ型ウェアラブルデバイスの視界画像を取得する取得部33Aと、視界画像の中から利用者Uが許容できない対象物OBJを特定する特定部33Dと、対象物OBJを利用者Uが許容可能な抽象化コンテンツABSに変換する変換部33Fと、メガネ型ウェアラブルデバイスの視界画像内の対象物OBJの位置に抽象化コンテンツABSを重畳して表示する表示制御部33Gとを備える。
[7. effect〕
As described above, the information processing device (terminal device 10, server device 100, or AR goggles 200) according to the present application includes an acquisition unit 33A that acquires a visual field image of a glasses-type wearable device, and a user U from the visual field image. a specifying unit 33D that identifies an object OBJ that is unacceptable; a converting unit 33F that converts the object OBJ into abstracted content ABS that is acceptable to the user U; The display controller 33G includes a display control unit 33G that superimposes and displays the abstracted content ABS at a position.

本願に係る情報処理装置は、利用者U(ユーザ)が許容できない対象物OBJの設定を受け付ける設定部33Bと、対象物OBJと抽象化コンテンツABSとの組を記憶する記憶部とをさらに備える。 The information processing device according to the present application further includes a setting unit 33B that accepts settings of an object OBJ that is unacceptable to the user U (user), and a storage unit that stores a set of an object OBJ and an abstracted content ABS.

本願に係る情報処理装置は、利用者Uの属性情報から、利用者Uが許容できない対象物OBJを推定する推定部33Cをさらに備える。変換部33Fは、対象物OBJを利用者Uが許容可能な抽象化コンテンツABSに変換する。 The information processing device according to the present application further includes an estimation unit 33C that estimates an object OBJ that is unacceptable to the user U from the user U's attribute information. The conversion unit 33F converts the object OBJ into abstracted content ABS acceptable to the user U.

本願に係る情報処理装置は、対象物OBJから抽象化コンテンツABSを自動的に生成する生成部33Eをさらに備える。変換部33Fは、対象物OBJを抽象化コンテンツABSに変換する。 The information processing device according to the present application further includes a generation unit 33E that automatically generates abstracted content ABS from object OBJ. The conversion unit 33F converts the object OBJ into abstracted content ABS.

本願に係る情報処理装置は、対象物OBJに対する利用者Uの許容度に関する設定を受け付ける設定部33Bをさらに備える。変換部33Fは、対象物OBJを許容度に応じた抽象化コンテンツABSに変換する。 The information processing device according to the present application further includes a setting unit 33B that receives settings regarding user U's tolerance to object OBJ. The conversion unit 33F converts the object OBJ into abstracted content ABS according to the tolerance level.

本願に係る情報処理装置は、利用者Uの属性情報から、対象物OBJに対する利用者Uの許容度を推定する推定部33Cをさらに備える。変換部33Fは、対象物OBJを許容度に応じた抽象化コンテンツABSに変換する。 The information processing device according to the present application further includes an estimation unit 33C that estimates the tolerance of the user U to the object OBJ from the user U's attribute information. The conversion unit 33F converts the object OBJ into abstracted content ABS according to the tolerance level.

本願に係る情報処理装置は、対象物OBJを抽象化する際の抽象度に関する設定を受け付ける設定部33Bをさらに備える。変換部33Fは、対象物OBJを抽象度に応じた抽象化コンテンツABSに変換する。 The information processing device according to the present application further includes a setting unit 33B that receives settings regarding the abstraction level when abstracting the object OBJ. The conversion unit 33F converts the object OBJ into abstracted content ABS according to the level of abstraction.

本願に係る情報処理装置は、利用者Uの属性情報から、対象物OBJを抽象化する際の抽象度を推定する推定部33Cをさらに備える。変換部33Fは、対象物OBJを抽象度に応じた抽象化コンテンツABSに変換する。 The information processing device according to the present application further includes an estimation unit 33C that estimates the degree of abstraction when abstracting the object OBJ from the attribute information of the user U. The conversion unit 33F converts the object OBJ into abstracted content ABS according to the level of abstraction.

設定部33Bは、利用者Uに対象物OBJの好みの度合いを問合せ、利用者Uから対象物OBJの好みの度合いの問合せに対する回答を受け付け、さらに、利用者Uに変換後の抽象化コンテンツABSの好みの度合いを問合せ、利用者Uから変換後の抽象化コンテンツABSの好みの度合いの問合せに対する回答を受け付け、それぞれの回答に応じて、対象物OBJを抽象化する際の抽象度を変化させる。変換部33Fは、対象物OBJを抽象度に応じた抽象化コンテンツABSに変換する。 The setting unit 33B inquires of the user U about the degree of preference for the object OBJ, receives a response from the user U to the inquiry about the degree of preference for the object OBJ, and further provides the user U with the converted abstracted content ABS. Inquire about the degree of preference for the abstracted content ABS after conversion, receive answers from the user U to the inquiry about the degree of preference for the converted abstract content ABS, and change the degree of abstraction when abstracting the object OBJ according to each answer. . The conversion unit 33F converts the object OBJ into abstracted content ABS according to the level of abstraction.

上述した各処理のいずれかもしくは組合せにより、本願に係る情報処理装置は、メガネ型ウェアラブルデバイスの視野画像において、ユーザが見たくないものを抽象化することができる。 By using any one or a combination of the above-described processes, the information processing apparatus according to the present application can abstract what the user does not want to see in the visual field image of the glasses-type wearable device.

〔8.ハードウェア構成〕
また、上述した実施形態に係る端末装置10やサーバ装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、端末装置10を例に挙げて説明する。図10は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[8. Hardware configuration]
Further, the terminal device 10 and the server device 100 according to the embodiments described above are realized by, for example, a computer 1000 having a configuration as shown in FIG. 10. The following will explain the terminal device 10 as an example. FIG. 10 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and a calculation device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are connected to a bus. 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic unit 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and performs various processes. The arithmetic device 1030 is realized by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used by the calculation device 1030 for various calculations. Further, the secondary storage device 1050 is a storage device in which data used by the calculation device 1030 for various calculations and various databases are registered, and includes a ROM (Read Only Memory), an HDD (Hard Disk Drive), and an SSD (Solid Disk Drive). This is realized using flash memory, etc. The secondary storage device 1050 may be a built-in storage or an external storage. Further, the secondary storage device 1050 may be a removable storage medium such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) memory card. Further, the secondary storage device 1050 may be a cloud storage (online storage), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various information such as a display, a projector, and a printer. (Digital Visual Interface) and HDMI (registered trademark) (High Definition Multimedia Interface). Further, the input I/F 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, keypad, button, scanner, etc., and is realized by, for example, a USB or the like.

また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 Further, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, output device 1010 and input device 1020 may be wireless devices.

また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 Moreover, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated as an input/output I/F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 Note that the input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network I/F 1080 receives data from other devices via network N and sends it to computing device 1030, and also sends data generated by computing device 1030 to other devices via network N.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 Arithmetic device 1030 controls output device 1010 and input device 1020 via output I/F 1060 and input I/F 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が端末装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部30の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the terminal device 10, the arithmetic unit 1030 of the computer 1000 realizes the functions of the control unit 30 by executing a program loaded onto the primary storage device 1040. Further, the arithmetic device 1030 of the computer 1000 may load a program obtained from another device via the network I/F 1080 onto the primary storage device 1040, and execute the loaded program. Furthermore, the arithmetic unit 1030 of the computer 1000 may cooperate with other devices via the network I/F 1080, and may call and use program functions, data, etc. from other programs of other devices.

〔9.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[9. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

例えば、上述したサーバ装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the server device 100 described above may be realized by a plurality of server computers, and depending on the function, it may be realized by calling an external platform etc. using an API (Application Programming Interface), network computing, etc. Can be changed flexibly.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
10 端末装置
33 処理部
33A 取得部
33B 設定部
33C 推定部
33D 特定部
33E 生成部
33F 変換部
33G 表示制御部
40 記憶部
40A 抽象化情報データベース
100 サーバ装置
110 通信部
120 記憶部
121 利用者情報データベース
122 履歴情報データベース
123 モデル情報データベース
130 制御部
131 取得部
132 判定部
133 学習部
134 提供部
1 Information processing system 10 Terminal device 33 Processing unit 33A Acquisition unit 33B Setting unit 33C Estimation unit 33D Specification unit 33E Generation unit 33F Conversion unit 33G Display control unit 40 Storage unit 40A Abstracted information database 100 Server device 110 Communication unit 120 Storage unit 121 User information database 122 History information database 123 Model information database 130 Control unit 131 Acquisition unit 132 Judgment unit 133 Learning unit 134 Providing unit

Claims (11)

メガネ型ウェアラブルデバイスの視界画像を取得する取得部と、
前記視界画像の中からユーザが許容できない対象物を特定する特定部と、
前記対象物を前記ユーザが許容可能な抽象化コンテンツに変換する変換部と、
前記メガネ型ウェアラブルデバイスの前記視界画像内の前記対象物の位置に前記抽象化コンテンツを重畳して表示する表示制御部と
を備えることを特徴とする情報処理装置。
an acquisition unit that acquires a visual field image of the glasses-type wearable device;
a specifying unit that specifies an object that is unacceptable to the user from the visual field image;
a conversion unit that converts the object into abstracted content acceptable to the user;
An information processing apparatus comprising: a display control unit that displays the abstracted content in a superimposed manner at the position of the object in the field of view image of the glasses-type wearable device.
前記ユーザが許容できない対象物の設定を受け付ける設定部と、
前記対象物と前記抽象化コンテンツとの組を記憶する記憶部と
をさらに備えることを特徴とする請求項1に記載の情報処理装置。
a setting unit that accepts settings for objects that are unacceptable to the user;
The information processing apparatus according to claim 1, further comprising: a storage unit that stores a set of the object and the abstracted content.
前記ユーザの属性情報から、前記ユーザが許容できない対象物を推定する推定部をさらに備え、
前記変換部は、前記対象物を前記ユーザが許容可能な前記抽象化コンテンツに変換する
ことを特徴とする請求項1に記載の情報処理装置。
further comprising an estimating unit that estimates an object that is unacceptable to the user from the user's attribute information,
The information processing apparatus according to claim 1, wherein the conversion unit converts the object into the abstracted content that is acceptable to the user.
前記対象物から前記抽象化コンテンツを自動的に生成する生成部をさらに備え、
前記変換部は、前記対象物を前記抽象化コンテンツに変換する
ことを特徴とする請求項1に記載の情報処理装置。
further comprising a generation unit that automatically generates the abstracted content from the object,
The information processing device according to claim 1, wherein the conversion unit converts the object into the abstracted content.
前記対象物に対する前記ユーザの許容度に関する設定を受け付ける設定部をさらに備え、
前記変換部は、前記対象物を前記許容度に応じた前記抽象化コンテンツに変換する
ことを特徴とする請求項1に記載の情報処理装置。
further comprising a setting unit that accepts settings regarding the user's tolerance to the object,
The information processing apparatus according to claim 1, wherein the conversion unit converts the object into the abstracted content according to the tolerance.
前記ユーザの属性情報から、前記対象物に対する前記ユーザの許容度を推定する推定部をさらに備え、
前記変換部は、前記対象物を前記許容度に応じた前記抽象化コンテンツに変換する
ことを特徴とする請求項1に記載の情報処理装置。
further comprising an estimating unit that estimates the user's tolerance to the object from the user's attribute information,
The information processing apparatus according to claim 1, wherein the conversion unit converts the object into the abstracted content according to the tolerance.
前記対象物を抽象化する際の抽象度に関する設定を受け付ける設定部をさらに備え、
前記変換部は、前記対象物を前記抽象度に応じた前記抽象化コンテンツに変換する
ことを特徴とする請求項1に記載の情報処理装置。
further comprising a setting unit that accepts settings regarding the abstraction level when abstracting the object,
The information processing device according to claim 1, wherein the conversion unit converts the object into the abstracted content according to the abstraction level.
前記設定部は、
前記ユーザに前記対象物の好みの度合いを問合せ、前記ユーザから前記対象物の好みの度合いの問合せに対する回答を受け付け、
さらに、前記ユーザに変換後の前記抽象化コンテンツの好みの度合いを問合せ、前記ユーザから変換後の前記抽象化コンテンツの好みの度合いの問合せに対する回答を受け付け、
それぞれの回答に応じて、前記対象物を抽象化する際の抽象度を変化させ、
前記変換部は、前記対象物を前記抽象度に応じた前記抽象化コンテンツに変換する
ことを特徴とする請求項7に記載の情報処理装置。
The setting section includes:
Inquiring the user about the degree of preference for the object, receiving a response from the user to the inquiry about the degree of preference for the object,
further, inquiring the user about the degree of preference of the abstracted content after conversion, and receiving a response from the user to the inquiry about the degree of preference of the abstracted content after conversion;
Depending on each answer, the degree of abstraction when abstracting the object is changed,
The information processing device according to claim 7, wherein the conversion unit converts the object into the abstracted content according to the abstraction level.
前記ユーザの属性情報から、前記対象物を抽象化する際の抽象度を推定する推定部をさらに備え、
前記変換部は、前記対象物を前記抽象度に応じた前記抽象化コンテンツに変換する
ことを特徴とする請求項1に記載の情報処理装置。
further comprising an estimation unit that estimates a degree of abstraction when abstracting the object from the user's attribute information,
The information processing device according to claim 1, wherein the conversion unit converts the object into the abstracted content according to the abstraction level.
情報処理装置が実行する情報処理方法であって、
メガネ型ウェアラブルデバイスの視界画像を取得する取得工程と、
前記視界画像の中からユーザが許容できない対象物を特定する特定工程と、
前記対象物を前記ユーザが許容可能な抽象化コンテンツに変換する変換工程と、
前記メガネ型ウェアラブルデバイスの前記視界画像内の前記対象物の位置に前記抽象化コンテンツを重畳して表示する表示制御工程と
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing device, the method comprising:
an acquisition step of acquiring a visual field image of the glasses-type wearable device;
an identification step of identifying an object that is unacceptable to the user from the visual field image;
a conversion step of converting the object into abstracted content acceptable to the user;
An information processing method comprising: a display control step of superimposing and displaying the abstracted content at the position of the object in the field of view image of the glasses-type wearable device.
メガネ型ウェアラブルデバイスの視界画像を取得する取得手段と、
前記視界画像の中からユーザが許容できない対象物を特定する特定手段と、
前記対象物を前記ユーザが許容可能な抽象化コンテンツに変換する変換手段と、
前記メガネ型ウェアラブルデバイスの前記視界画像内の前記対象物の位置に前記抽象化コンテンツを重畳して表示する表示制御手段と
をコンピュータに実行させることを特徴とする情報処理プログラム。
an acquisition means for acquiring a visual field image of the glasses-type wearable device;
identification means for identifying an object unacceptable to the user from the visual field image;
converting means for converting the object into abstracted content acceptable to the user;
and display control means for superimposing and displaying the abstracted content at the position of the object in the field of view image of the glasses-type wearable device.
JP2022129409A 2022-08-15 2022-08-15 Information processing device, information processing method, and information processing program Pending JP2024025997A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022129409A JP2024025997A (en) 2022-08-15 2022-08-15 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022129409A JP2024025997A (en) 2022-08-15 2022-08-15 Information processing device, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP2024025997A true JP2024025997A (en) 2024-02-28

Family

ID=90038155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022129409A Pending JP2024025997A (en) 2022-08-15 2022-08-15 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP2024025997A (en)

Similar Documents

Publication Publication Date Title
JP7187597B2 (en) Information processing device, information processing method and information processing program
JP2023027548A (en) Device, method, and program for processing information
JP2024025997A (en) Information processing device, information processing method, and information processing program
JP7388744B2 (en) Information processing device, information processing method, and information processing program
JP7459021B2 (en) Information processing device, information processing method, and information processing program
JP7317901B2 (en) Information processing device, information processing method and information processing program
JP7212665B2 (en) Information processing device, information processing method and information processing program
JP7145997B2 (en) Information processing device, information processing method and information processing program
JP7168640B2 (en) Information processing device, information processing method and information processing program
JP7145247B2 (en) Information processing device, information processing method and information processing program
JP7337123B2 (en) Information processing device, information processing method and information processing program
JP7459026B2 (en) Information processing device, information processing method, and information processing program
JP2024042231A (en) Information processing device, information processing method, and information processing program
JP7458363B2 (en) Information processing device, information processing method, and information processing program
JP7159373B2 (en) Information processing device, information processing method and information processing program
JP7193519B2 (en) Information processing device, information processing method and information processing program
JP2023028857A (en) Information processing system
JP2023043772A (en) Information processing device, information processing method, and information processing program
JP2023127393A (en) Information processing device, information processing method, and information processing program
JP2023179878A (en) Information processing device, information processing method and information processing program
JP2023170207A (en) Information processor, method for processing information, and program
JP2023043778A (en) Information processing device, information processing method, and information processing program
JP2023179929A (en) Information processing device, information processing method, and information processing program
JP2023105760A (en) Information processor, information processing method, and information processing program
JP2023180322A (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026