JP7361084B2 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7361084B2
JP7361084B2 JP2021185974A JP2021185974A JP7361084B2 JP 7361084 B2 JP7361084 B2 JP 7361084B2 JP 2021185974 A JP2021185974 A JP 2021185974A JP 2021185974 A JP2021185974 A JP 2021185974A JP 7361084 B2 JP7361084 B2 JP 7361084B2
Authority
JP
Japan
Prior art keywords
user
property
image
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021185974A
Other languages
Japanese (ja)
Other versions
JP2023073128A (en
Inventor
普施 香取
裕梨 平山
周作 檀上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021185974A priority Critical patent/JP7361084B2/en
Publication of JP2023073128A publication Critical patent/JP2023073128A/en
Application granted granted Critical
Publication of JP7361084B2 publication Critical patent/JP7361084B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

画像の内容に応じて、物件情報を好適に提供することを可能とする技術が開示されている(特許文献1参照)。また、画像の審美スコアを求める技術が開示されている(非特許文献1参照)。 A technique has been disclosed that makes it possible to suitably provide property information depending on the content of an image (see Patent Document 1). Furthermore, a technique for obtaining an aesthetic score of an image has been disclosed (see Non-Patent Document 1).

特開2017-097722号公報JP2017-097722A

「綺麗」という感情、ついに数値化される。GoogleがAIを使った画像評価技術「NIMA」を発表 ギズモード・ジャパン<URL:https://www.gizmodo.jp/2017/12/google-nima.html>The feeling of "beautiful" can finally be quantified. Google announces “NIMA” image evaluation technology using AI Gizmodo Japan <URL: https://www.gizmodo.jp/2017/12/google-nima.html>

しかしながら、上記の従来技術は、ユーザがより有益な情報を得るための検索を支援する点で改善の余地がある。そのため、よりユーザに有益な情報を提供できるような検索条件を創出したいという需要がある。 However, the above-mentioned conventional technology has room for improvement in terms of supporting searches for users to obtain more useful information. Therefore, there is a demand for creating search conditions that can provide more useful information to users.

本願は、上記に鑑みてなされたものであって、ユーザに有益な情報を提供するための検索条件を創出することを目的とする。 The present application has been made in view of the above, and aims to create search conditions for providing useful information to users.

本願に係る情報処理装置は、物件ごとに登録される画像のうちユーザが閲覧した対象物の異なる複数の画像の各々の対象物の共通点から、ユーザが閲覧した物件の画像の対象物の傾向を特定する特定部と、特定された物件の画像の対象物の傾向に基づいて、物件を検索するための検索条件を生成する生成部と、前記検索条件に応じた物件のうち、前記傾向に応じた対象物の画像の審美性が高い物件をユーザに提示する提供部と、を備えることを特徴とする。 The information processing device according to the present application determines the tendency of the objects in the images of the property viewed by the user from the common points of each of the plurality of images of different objects viewed by the user among the images registered for each property. a generation unit that generates a search condition for searching for a property based on the tendency of the object in the image of the specified property ; The present invention is characterized by comprising a providing unit that presents the user with objects whose images have high aesthetic appeal .

実施形態の一態様によれば、ユーザに有益な情報を提供するための検索条件を創出することができる。 According to one aspect of the embodiment, search conditions for providing useful information to a user can be created.

図1は、実施形態に係る情報処理方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing system according to an embodiment. 図3は、実施形態に係る端末装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a terminal device according to an embodiment. 図4は、実施形態に係る情報提供装置の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of an information providing apparatus according to an embodiment. 図5は、利用者情報データベースの一例を示す図である。FIG. 5 is a diagram showing an example of a user information database. 図6は、履歴情報データベースの一例を示す図である。FIG. 6 is a diagram showing an example of a history information database. 図7は、物件画像情報データベースの一例を示す図である。FIG. 7 is a diagram showing an example of a property image information database. 図8は、実施形態に係る処理手順を示すフローチャートである。FIG. 8 is a flowchart showing the processing procedure according to the embodiment. 図9は、ハードウェア構成の一例を示す図である。FIG. 9 is a diagram showing an example of the hardware configuration.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. In addition, in the following embodiments, the same parts are given the same reference numerals, and redundant explanations will be omitted.

〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、ユーザが見ている画像の特徴を示すタグを集計して、集計結果に基づき該当する検索条件を生成してユーザにこだわり条件として提示する場合を例に挙げて説明する。
[1. Overview of information processing method]
First, with reference to FIG. 1, an overview of an information processing method performed by an information processing apparatus according to an embodiment will be described. FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. In FIG. 1, an example will be described in which tags indicating the characteristics of the image that the user is viewing are aggregated, and corresponding search conditions are generated based on the aggregated results and presented to the user as particular conditions.

図1に示すように、情報処理システム1は、端末装置10と情報提供装置100とを含む。端末装置10と情報提供装置100とは、ネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。本実施形態では、端末装置10は、情報提供装置100と連携する。 As shown in FIG. 1, the information processing system 1 includes a terminal device 10 and an information providing device 100. The terminal device 10 and the information providing device 100 are connected to be able to communicate with each other by wire or wirelessly via a network N (see FIG. 2). In this embodiment, the terminal device 10 cooperates with the information providing device 100.

端末装置10は、利用者U(ユーザ)により使用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。 The terminal device 10 is a smart device such as a smartphone or a tablet used by a user U (user), and can communicate with any server device via a wireless communication network such as 4G (Generation) or LTE (Long Term Evolution). This is a mobile terminal device that can perform Further, the terminal device 10 has a screen such as a liquid crystal display, which has a touch panel function, and displays data such as content through a tap operation, a slide operation, a scroll operation, etc. from the user U using a finger or a stylus. Accepts various operations on. Note that an operation performed on an area of the screen where content is displayed may be an operation on the content. Further, the terminal device 10 may be not only a smart device but also an information processing device such as a desktop PC (Personal Computer) or a notebook PC.

情報提供装置100は、各利用者Uの端末装置10と連携し、各利用者Uの端末装置10に対して、各種アプリケーション(以下、アプリ)等に対するAPI(Application Programming Interface)サービス等と、各種データを提供する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。 The information providing device 100 cooperates with the terminal device 10 of each user U, and provides API (Application Programming Interface) services for various applications (hereinafter referred to as applications), etc., to the terminal device 10 of each user U, and various It is an information processing device that provides data, and is realized by a server device, a cloud system, etc.

また、情報提供装置100は、各利用者Uの端末装置10に対して、オンラインで何らかのWebサービスを提供する情報処理装置であってもよい。例えば、情報提供装置100は、Webサービスとして、インターネット接続、検索サービス、SNS(Social Networking Service)、電子商取引(EC:Electronic Commerce)、電子決済、オンラインゲーム、オンラインバンキング、オンライントレーディング、宿泊・チケット予約、動画・音楽配信、ニュース、地図、ルート検索、経路案内、路線情報、運行情報、天気予報等のサービスを提供してもよい。実際には、情報提供装置100は、上記のようなWebサービスを提供する各種サーバと連携し、Webサービスを仲介してもよいし、Webサービスの処理を担当してもよい。 Further, the information providing device 100 may be an information processing device that provides some kind of web service online to the terminal device 10 of each user U. For example, the information providing device 100 provides web services such as Internet connection, search service, SNS (Social Networking Service), electronic commerce (EC), electronic payment, online games, online banking, online trading, accommodation and ticket reservations. , video/music distribution, news, maps, route searches, route guidance, route information, operation information, weather forecasts, and other services may be provided. In reality, the information providing apparatus 100 may cooperate with various servers that provide the above-mentioned Web services, mediate the Web services, or may be in charge of processing the Web services.

なお、情報提供装置100は、利用者Uに関する利用者情報を取得可能である。例えば、情報提供装置100は、利用者Uの性別、年代、居住地域といった利用者Uの属性に関する情報を取得する。そして、情報提供装置100は、利用者Uを示す識別情報(利用者ID等)とともに利用者Uの属性に関する情報を記憶して管理する。 Note that the information providing device 100 can acquire user information regarding the user U. For example, the information providing device 100 acquires information regarding attributes of the user U, such as the user's U's gender, age, and area of residence. Then, the information providing device 100 stores and manages information regarding attributes of the user U along with identification information indicating the user U (user ID, etc.).

また、情報提供装置100は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、情報提供装置100は、利用者Uの位置や日時の履歴である位置履歴を端末装置10から取得する。また、情報提供装置100は、利用者Uが入力した検索クエリの履歴である検索履歴を検索サーバ(検索エンジン)から取得する。また、情報提供装置100は、利用者Uが閲覧したコンテンツの履歴である閲覧履歴をコンテンツサーバから取得する。また、情報提供装置100は、利用者Uの商品購入や決済処理の履歴である購入履歴(決済履歴)を電子商取引サーバや決済処理サーバから取得する。また、情報提供装置100は、利用者Uのマーケットプレイスへの出品の履歴である出品履歴や販売履歴を電子商取引サーバや決済サーバから取得してもよい。また、情報提供装置100は、利用者Uの投稿の履歴である投稿履歴を口コミの投稿サービスを提供する投稿サーバやSNSサーバから取得する。 Further, the information providing device 100 acquires various kinds of history information (log data) indicating the behavior of the user U from the terminal device 10 of the user U or from various servers based on the user ID or the like. For example, the information providing device 100 acquires a location history, which is a history of the user U's location, date and time, from the terminal device 10. The information providing device 100 also acquires a search history, which is a history of search queries input by the user U, from a search server (search engine). The information providing device 100 also acquires a viewing history, which is a history of content viewed by the user U, from the content server. Further, the information providing device 100 acquires a purchase history (payment history) that is a history of product purchases and payment processing by the user U from the electronic commerce server and the payment processing server. Further, the information providing device 100 may acquire the listing history and the sales history, which are the listing history of the user U on the marketplace, from the electronic commerce server or the payment server. The information providing device 100 also acquires a posting history, which is a history of postings by the user U, from a posting server or SNS server that provides a word-of-mouth posting service.

本実施形態では、情報提供装置100は、利用者Uが閲覧している物件の画像の解析結果から、従来とは異なる観点の検索条件(検索軸)を生成し、利用者Uのこだわり条件として、生成された検索条件に関連する物件をリスティングする物件として決定し、ユーザに提示する。このとき、情報提供装置100は、「外観が綺麗」、「水回りが綺麗」等の物件の画像の審美スコアに基づく物件リストを作成してもよい。 In the present embodiment, the information providing device 100 generates search conditions (search axes) from a different perspective than before from the analysis results of the image of the property that the user U is viewing, and uses the search conditions as the user U's particular criteria. , a property related to the generated search condition is determined as a property to be listed and presented to the user. At this time, the information providing apparatus 100 may create a property list based on the aesthetic score of the image of the property, such as "the exterior is beautiful" and "the plumbing is beautiful".

例えば、図1に示すように、情報提供装置100は、ネットワークN(図2参照)を介して、利用者Uの端末装置10から、物件の画像の閲覧を受け付ける(ステップS1)。 For example, as shown in FIG. 1, the information providing device 100 accepts viewing of an image of a property from the terminal device 10 of the user U via the network N (see FIG. 2) (step S1).

続いて、情報提供装置100は、利用者Uの閲覧している物件の画像の審美スコアを算出する(ステップS2)。 Subsequently, the information providing device 100 calculates the aesthetic score of the image of the property that the user U is viewing (step S2).

続いて、情報提供装置100は、利用者Uの閲覧している物件の画像の特徴の共通性を推定する(ステップS3)。 Subsequently, the information providing device 100 estimates the commonality of the characteristics of the images of the properties that the user U is viewing (step S3).

続いて、情報提供装置100は、画像の特徴の共通性に基づいて検索条件を生成する(ステップS4)。 Subsequently, the information providing apparatus 100 generates search conditions based on the commonality of the features of the images (step S4).

続いて、情報提供装置100は、検索条件に関連する物件をリスティングする物件として決定する(ステップS5)。 Subsequently, the information providing device 100 determines a property related to the search condition as a property to be listed (step S5).

続いて、情報提供装置100は、利用者Uの端末装置10に、決定された物件(リスティングされた物件)に関する情報を提示する(ステップS6)。 Subsequently, the information providing device 100 presents information regarding the determined property (listed property) to the terminal device 10 of the user U (step S6).

〔1-1.閲覧画像に基づくこだわり条件アシスト〕
本実施形態では、情報提供装置100は、ユーザが見ている画像の特徴を示すタグ(又はラベル)を集計して、集計結果に基づき該当する検索条件を生成してユーザにこだわり条件として提示する。このとき、情報提供装置100は、画像から注目ポイントを抽出してタグ付けし、ユーザが見ている画像のタグを集計して、こだわり条件と判定して、タグに該当する検索条件を生成し、検索条件に関連する物件を提示する。
[1-1. Special condition assist based on viewed images]
In this embodiment, the information providing device 100 aggregates tags (or labels) indicating the characteristics of the image the user is viewing, generates corresponding search conditions based on the aggregate results, and presents the search conditions to the user as particular conditions. . At this time, the information providing device 100 extracts and tags the points of interest from the image, aggregates the tags of the image the user is viewing, determines it to be a particular condition, and generates a search condition corresponding to the tag. , presents properties related to the search conditions.

例えば、情報提供装置100は、タワーマンションの画像ばかり閲覧しているユーザには、興味関心を判定するために内部的にもつスコア(興味関心の度合いを示すスコア)を追加して「人気のタワーマンション」という検索条件を生成する。そして、情報提供装置100は、検索条件に応じた物件のうち、画像の審美スコアが高い物件(閾値以上、上位10位以内等)を提示する。 For example, for a user who is viewing only images of tower apartments, the information providing device 100 may add an internal score (score indicating the degree of interest) to determine the user's interest, and add "Popular tower condominium images" to the user. Generates the search condition "Apartment". Then, the information providing device 100 presents properties with high image aesthetic scores (above a threshold value, within the top 10, etc.) among the properties according to the search conditions.

また、キッチン、トイレ、風呂場又は洗面所等の水回りの画像ばかり閲覧しているユーザには、興味関心を判定するために内部的にもつスコア(興味関心の度合いを示すスコア)を追加して「水回りが綺麗」という検索条件を生成する。そして、情報提供装置100は、検索条件に応じた物件のうち、水回りの画像の審美スコアが高い物件(閾値以上、上位10位以内等)を提示する。このように、情報提供装置100は、ユーザが閲覧している画像に基づいて、こだわり条件の生成をアシストする。 In addition, for users who only view images of water areas such as kitchens, toilets, bathrooms, washrooms, etc., an internal score (score indicating the degree of interest) is added to determine interest. to generate the search condition ``The water area is clean.'' Then, the information providing device 100 presents properties with high aesthetic scores for images of water areas (above a threshold, within the top 10, etc.) among properties that meet the search conditions. In this way, the information providing apparatus 100 assists the generation of particular conditions based on the image that the user is viewing.

なお、「ユーザが見ている」とは、サムネイルの表示や閲覧のみならず、クリック等の選択により拡大画像を閲覧した行為も含む。また、情報提供装置100は、ユーザが見ているか否かを判断するために、ユーザのクリック等のログのみならず、スクロール操作の内容等により、ユーザが画像を閲覧したか否かを推定し、推定結果に基づいた処理を行ってもよい。 Note that "the user is viewing" includes not only displaying or viewing thumbnails, but also the act of viewing an enlarged image by selection such as clicking. Furthermore, in order to determine whether the user is viewing the image, the information providing device 100 estimates whether the user has viewed the image based not only on the user's log of clicks, etc., but also based on the content of the scrolling operation, etc. , processing may be performed based on the estimation results.

また、「ユーザに物件を提示する」とは、情報提供装置100がネットワークN(図2参照)を介してユーザの端末装置10に物件の画像や詳細情報を提供することを含む。物件は、不動産・住宅等である。物件の画像は、不動産・住宅等の建物の屋内(室内、内装、内壁、間取り等)の画像に限らず、屋外(全体像、外観、外壁、庭、近隣等)の画像も含む。 Furthermore, "presenting the property to the user" includes the information providing device 100 providing images and detailed information of the property to the user's terminal device 10 via the network N (see FIG. 2). The property is real estate, housing, etc. Images of properties include not only indoor images (indoors, interiors, inner walls, floor plans, etc.) of buildings such as real estate and residences, but also outdoor images (overview, external appearance, external walls, garden, neighborhood, etc.).

建物は、例えばマンション・アパート等の集合住宅や、戸建住宅等である。賃貸住宅でも分譲住宅でも建売住宅でもよい。また、新築住宅でも中古住宅でもよい。なお、実際には、建物は、企業等のオフィスビル、店舗等の商業施設、ホテル等の宿泊施設、学校等の教育機関、病院等の医療機関、研究所等の研究機関、工場等の産業プラント、配送センター等の物流拠点等であってもよい。また、大型商業施設(ショッピングセンター/アウトレットモール/地下街)、娯楽施設(テーマパーク/遊園地/遊戯場/動物園/水族館/プール/入浴施設)、文化施設(ホール/劇場/図書館/美術館/博物館)、複合施設、スポーツ施設、寺社仏閣、サービスエリア(SA)やパーキングエリア(PA)、又は鉄道駅や道の駅、空港、港湾(乗船場)等であってもよい。 The building is, for example, a housing complex such as a condominium or apartment, or a detached house. It can be a rental home, a condominium, or a built home. Also, it may be a newly built house or a used house. In reality, buildings include office buildings such as companies, commercial facilities such as stores, accommodation facilities such as hotels, educational institutions such as schools, medical institutions such as hospitals, research institutions such as laboratories, and industrial facilities such as factories. It may also be a logistics base such as a plant or a distribution center. In addition, large commercial facilities (shopping centers/outlet malls/underground malls), entertainment facilities (theme parks/amusement parks/playgrounds/zoos/aquariums/pools/bathing facilities), and cultural facilities (halls/theaters/libraries/art galleries/museums) , a complex facility, a sports facility, a temple or shrine, a service area (SA), a parking area (PA), a railway station, a roadside station, an airport, a port (boarding area), etc.

また、建物は、例えば壁、間仕切り(パーテーション)、床、天井等で仕切られた空間を有する。これらの空間は、例えば建物内の部屋、玄関、廊下、キッチン、風呂、トイレ、エレベータ、階段、通路、車庫、倉庫、納屋、物置等である。部屋は、個室に限らず、リビングや書斎、ラウンジ等を含む。玄関は、ロビーやエントランスを含む。すなわち、空間は、人が滞在、出入り又は通過する場所である。空間は、人が居住又は勤務する場所であってもよく、人に利用される物品が保管される場所であってもよい。また、建物において、空間は、1つであってもよく、複数であってもよい。また、空間は、例えば建物内の部屋等に限らず、車両や船舶、航空機等の客室(キャビン)等であってもよい。すなわち、空間は、住宅等の屋内で人が生活する空間に限らず、自動車や高速バス、鉄道、大型客船、飛行機等で乗員・乗客が過ごす空間であってもよい。言い換えれば、空間は、建物や移動体の内部の居住空間であってもよい。 Furthermore, buildings have spaces partitioned by walls, partitions, floors, ceilings, and the like. These spaces include, for example, rooms in a building, entrances, hallways, kitchens, baths, toilets, elevators, stairs, passages, garages, warehouses, barns, storerooms, and the like. Rooms are not limited to private rooms, but also include living rooms, studies, lounges, etc. The entrance includes the lobby and entrance. That is, a space is a place where people stay, enter, exit, or pass through. The space may be a place where people live or work, or a place where goods used by people are stored. Moreover, in a building, there may be one space or a plurality of spaces. Furthermore, the space is not limited to, for example, a room in a building, but may also be a cabin of a vehicle, ship, aircraft, or the like. That is, the space is not limited to a space where people live indoors such as a house, but may also be a space where crew members and passengers spend time in a car, express bus, train, large cruise ship, airplane, etc. In other words, the space may be a living space inside a building or a moving object.

なお、物件は、建物に限らず、観光スポット、公園、水辺(海、河川、湖沼等)、キャンプ場、山林、トンネルや洞穴等であってもよい。また、屋外にも、壁や建物その他の構造物、自然物等の障害物で仕切られた空間は存在する。また、空間は、仕切られた空間に限らず、ある地点を中心とした所定範囲内の空間であってもよい。 Note that the property is not limited to a building, and may be a tourist spot, a park, a waterside (the sea, a river, a lake, etc.), a campsite, a mountain forest, a tunnel, a cave, etc. Furthermore, even outdoors, there are spaces partitioned off by obstacles such as walls, buildings, other structures, and natural objects. Further, the space is not limited to a partitioned space, but may be a space within a predetermined range centered on a certain point.

〔1-2.画像解析結果から検索条件の生成〕
情報提供装置100は、物件に紐づけられた画像を解析して、画像の対象物と、その画像又は対象物の解析結果として得られた画像又は対象物の特徴とをもとに、検索条件(検索条件)を生成してユーザに提示する。
[1-2. Generating search conditions from image analysis results]
The information providing device 100 analyzes the images linked to the property and creates search conditions based on the object in the image and the characteristics of the image or object obtained as a result of the analysis of the image or object. (search conditions) and present them to the user.

例えば、情報提供装置100は、画像の対象物が「外観の画像」であって、その画像のユーザ閲覧数/閲覧時間が多い場合、「外観が人気の物件」という検索条件を生成する。また、情報提供装置100は、画像の対象物が「眺望の画像」であって、その画像の審美スコアが上位である場合、「眺めが綺麗な(良い)物件」という検索条件を生成する。 For example, if the object of the image is an "image of the exterior" and the image is viewed by many users/viewed for a large number of times, the information providing apparatus 100 generates a search condition of "property with popular exterior". Furthermore, when the object of the image is an "image of a view" and the aesthetic score of the image is high, the information providing device 100 generates a search condition of "property with a beautiful (good) view."

また、情報提供装置100は、画像の対象物がキッチン、トイレ、風呂場又は洗面所等の「水回りの画像」であって、その画像の審美スコアが上位であり、ユーザの閲覧数が多い場合、「水回りの綺麗な物件」という検索条件を選択する。このとき、情報提供装置100は、ユーザが見ている画像の対象物を具体的に特定して、「キッチンが綺麗な物件」、「トイレが綺麗な物件」、「風呂場が綺麗な物件」又は「洗面所が綺麗な物件」等の検索条件を選択してもよい。すなわち、キッチン、トイレ、風呂場又は洗面所等のカテゴリが存在し、さらに上位のカテゴリとして「水回り」が存在し、それぞれに関する検索条件を選択することが可能である。 In addition, the information providing device 100 is configured such that the object of the image is an "image of a water area" such as a kitchen, toilet, bathroom, or washroom, and the image has a high aesthetic score and is viewed by a large number of users. If so, select the search condition ``properties with clean plumbing.'' At this time, the information providing device 100 specifically identifies the target object in the image that the user is viewing, and selects "property with a clean kitchen," "property with a clean toilet," and "property with a clean bathroom." Alternatively, search conditions such as "properties with clean washrooms" may be selected. That is, there are categories such as kitchen, toilet, bathroom, washroom, etc., and there is also a higher-level category "Water area", and it is possible to select search conditions for each category.

あるいは、情報提供装置100は、画像の対象物がクローゼットや押し入れ、トランクルーム等の「収納の画像」であって、ユーザの閲覧数が多い場合、「収納が広い物件」という検索条件を選択してもよい。また、情報提供装置100は、その画像の審美スコアが上位であり、ユーザの閲覧数が多い場合、「収納が綺麗な物件」という検索条件を選択してもよい。 Alternatively, if the object of the image is a "storage image" such as a closet, closet, trunk room, etc., and the number of views by the user is large, the information providing device 100 selects the search condition "property with ample storage". Good too. Furthermore, if the image has a high aesthetic score and has been viewed by many users, the information providing device 100 may select the search condition of "property with beautiful storage."

また、情報提供装置100は、画像の対象物が中古物件の「外観の画像」又は「内装の画像」であって、その画像の審美スコアが上位であり、ユーザの閲覧数が多い場合、「過去3年以内にリフォーム済みの物件」という検索条件を生成してもよい。 Furthermore, if the object of the image is an "image of the exterior" or "image of the interior" of a used property, the aesthetic score of the image is high, and the number of views by the user is large, the information providing device 100 displays " A search condition such as "property renovated within the past three years" may be generated.

なお、情報提供装置100は、クラウドソーシング等により画像の「綺麗」、「かっこいい」等の分類を行い、検索条件の名称として反映してもよい。例えば、情報提供装置100は、ユーザ自身の手で画像の「綺麗」、「かっこいい」等の分類を行わせ、検索条件の名称として反映してもよい。また、情報提供装置100は、画像に対して各ユーザが指定した「綺麗」、「かっこいい」等のタグ(又はラベル)を集計し、最も多く指定されたタグのカテゴリに分類してもよい。また、情報提供装置100は、物件のクチコミ情報や業者コメントを組み合わせて、特徴の確かさに重みづけ(「眺めが良い」なら加点等)してもよい。 Note that the information providing apparatus 100 may classify images into "beautiful", "cool", etc. through crowdsourcing or the like, and may reflect this as the name of the search condition. For example, the information providing apparatus 100 may have the user manually classify images into "beautiful", "cool", etc., and may reflect this as the name of the search condition. Further, the information providing device 100 may aggregate the tags (or labels) such as "beautiful" and "cool" specified by each user for the image, and classify the tags into the category of the tag specified most frequently. Further, the information providing device 100 may combine word-of-mouth information about the property and comments from the trader and weight the certainty of the feature (adding points if the property has a "good view", etc.).

〔1-3.審美スコアに基づく物件リスト作成〕
情報提供装置100は、物件に紐づけられた画像を解析して、画像の対象物と、画像の審美スコアをもとにリスティングする物件を決定する。例えば、情報提供装置100は、モデルを用いて「物件の外観」に該当する画像を選択し、それぞれの審美スコアを取って上位スコア(上位○○位以内、閾値以上等)の画像の物件をリスティングする物件とする。
[1-3. Creation of property list based on aesthetic score]
The information providing device 100 analyzes images linked to properties and determines properties to be listed based on the object in the image and the aesthetic score of the image. For example, the information providing device 100 uses a model to select images that correspond to the "property appearance", takes the aesthetic score of each, and selects properties with images with high scores (within top XXX, above a threshold, etc.). The property to be listed.

リスティングする物件として、例えば、「外観がかっこいい物件」、「眺望が綺麗な物件」、「水回りが綺麗な物件」、「過去3年以内にリフォーム済みの物件」等が挙げられる。 Properties to be listed include, for example, "properties with cool exteriors," "properties with beautiful views," "properties with beautiful plumbing," and "properties that have been renovated within the past three years."

なお、築30年以上の物件は、審美スコアが低いものが相対的に多くなる。また、築30年以上の物件は、審美スコアが高くても敬遠される可能性もある。そこで、情報提供装置100は、審美スコアに関係なく築30年以上の物件は除外するようにしてもよい。この場合、情報提供装置100は、当該物件が築30年以上であるという情報を、当該物件の物件情報から、又は物件情報に含まれる情報を組み合わせて求める。また、物体の審美性について、「綺麗」等の個人の感覚(主観)によるものは、審美スコアによらず人が定義してもよい。 It should be noted that relatively more properties that are 30 years old or older have low aesthetic scores. Additionally, properties that are over 30 years old may be avoided even if they have a high aesthetic score. Therefore, the information providing device 100 may exclude properties that are 30 years old or older regardless of the aesthetic score. In this case, the information providing device 100 obtains information that the property is 30 years or older from the property information of the property or by combining information included in the property information. Furthermore, regarding the aesthetics of an object, things such as "beautiful" based on an individual's sense (subjectivity) may be defined by a person, regardless of the aesthetic score.

(本実施形態に係る審美スコア)
情報提供装置100は、本実施形態に係る審美スコアとして、従来とは異なり、物件の画像の技術面(画質等)と審美面(写っている内容等)との両方を考慮したスコアを算出する。本実施形態に係る審美スコアは、1~10の値を取る。データのドメインにもよるが、審美スコアの目安としては、5.0以下だと低く、5.5以上だと高いと判断する。なお、5.0より大きく5.5未満だと通常(普通)と判断する。本実施形態に係る審美スコアの利用については、不特定多数の画像から高品質な画像のみを選別したい場合に利用することを想定している。
(Aesthetic score according to this embodiment)
As the aesthetic score according to the present embodiment, the information providing device 100 calculates a score that takes into account both the technical aspects (image quality, etc.) and the aesthetic aspects (image content, etc.) of the image of the property, unlike conventional methods. . The aesthetic score according to this embodiment takes a value of 1 to 10. Although it depends on the domain of the data, as a guideline for the aesthetic score, 5.0 or less is considered low, and 5.5 or more is considered high. Note that if it is greater than 5.0 and less than 5.5, it is determined to be normal. The aesthetic score according to this embodiment is assumed to be used when it is desired to select only high-quality images from an unspecified number of images.

このように、情報提供装置100は、物件の画像解析を行って、外観がかっこいい物件等の分類を自動的に生成する。すなわち、情報提供装置100は、画像のカテゴリ分類を行う。例えば、情報提供装置100は、物件の画像を「水回り」、「外観」、「眺望」、「かっこいい」、「綺麗」等のカテゴリに分類する。 In this way, the information providing device 100 performs image analysis of properties and automatically generates classifications of properties such as those with cool appearance. That is, the information providing apparatus 100 performs category classification of images. For example, the information providing device 100 classifies images of properties into categories such as "water area", "exterior", "view", "cool", and "beautiful".

このとき、情報提供装置100は、分類後の画像について、「綺麗さ」に関する審美スコアに基づいて、「水回りの綺麗さ」、「外観の綺麗さ」等を評価して、評価結果のグルーピングを行い、「〇〇が綺麗な物件」としてユーザに提案する。これにより、情報提供装置100は、中古物件なのにキッチン等の水回りが綺麗な物件のような、コストパフォーマンスがいい物件等を提供できる。情報提供装置100は、物件の画像について、何をどういう物件に分類するかは、ルールベースで判断する。 At this time, the information providing device 100 evaluates the "cleanliness of water areas", "beautiful appearance", etc. of the classified images based on the aesthetic score related to "cleanliness", and groups the evaluation results. The property is then proposed to the user as a "property with beautiful properties." As a result, the information providing device 100 can provide properties with good cost performance, such as properties with clean plumbing such as kitchens even though they are used properties. The information providing device 100 determines which property images to classify into what kind of property based on rules.

また、情報提供装置100は、例えば物件の外観の画像を提示する場合に、築30年以上の物件の外観の画像については提示の対象から除外する。物件は、一戸建てでもよいし、賃貸マンション/賃貸アパートであってもよい。 Furthermore, when presenting an image of the exterior of a property, for example, the information providing device 100 excludes images of the exterior of a property that is 30 years old or older from being presented. The property may be a single-family house or a rental condominium/apartment.

また、情報提供装置100は、築年数が古く外観の審美スコアは悪いが、室内の審美スコアが高い場合には、リフォームのバリューが高いと判断する。情報提供装置100は、リフォームのバリューが高い物件であって築年数の関係で賃料等が相場よりも安い場合には、おすすめの物件として提案できる。また、情報提供装置100は、内装が綺麗、キッチン等の水回りが綺麗等、各物件の部分(部位)ごとの相対的評価ができるようになる。 Furthermore, if the information providing device 100 is old and has a poor exterior aesthetic score but a high interior aesthetic score, it is determined that the value of renovation is high. The information providing device 100 can suggest a property as a recommended property if the property has a high renovation value and the rent etc. are lower than the market price due to the age of the property. Furthermore, the information providing device 100 can perform a relative evaluation of each part of each property, such as whether the interior is clean or the kitchen and other plumbing areas are clean.

このとき、情報提供装置100は、審美スコアの相対的な差に応じて、分類対象とするかどうかを判定する。なお、情報提供装置100は、物件の画像はそのままで審美スコアを算出してもよいし、物件の画像にレンズ補正をかけて実際の状態で審美スコアを算出してもよい。 At this time, the information providing device 100 determines whether to classify the image based on the relative difference in aesthetic scores. Note that the information providing device 100 may calculate the aesthetic score using the image of the property as it is, or may apply lens correction to the image of the property to calculate the aesthetic score in its actual state.

なお、情報提供装置100は、物件の画像と、画像の分類後の結果としてのカテゴリ(例えば「外観が綺麗」)との組合せから、物件の画像ごとにカテゴリを推定して分類するモデルを作成/更新してもよい。また、情報提供装置100は、対象となる物件の属性ごと、又はユーザ属性ごとにモデルを作成してもよい。 Note that the information providing device 100 creates a model for estimating and classifying a category for each property image based on a combination of the property image and a category (for example, “beautiful exterior”) resulting from the image classification. / May be updated. Further, the information providing apparatus 100 may create a model for each attribute of the target property or for each user attribute.

さらに、情報提供装置100は、ユーザが良く(頻繁に)閲覧している物件の特徴(例えば「外観が綺麗」)の共通性から、当該ユーザのこだわり条件を推定して、推定されたこだわり条件に合致する物件を提案する。 Furthermore, the information providing device 100 estimates the user's preference conditions based on the commonality of characteristics (for example, "beautiful exterior") of properties that the user often views (frequently), and calculates the estimated preference conditions. Suggest properties that match your criteria.

例えば、情報提供装置100は、ユーザが良く閲覧している物件の特徴の共通性から、物件全体(自体)の特徴として、「所在地」、「タワーマンション」、「賃料/価格」、「5階以下」、「庭がある」、「ベランダの広さ」、「築年数」等に興味があるかを推定する。あるいは、情報提供装置100は、物件の部分ごとの特徴として、「水回り」に興味があるかを推定する。 For example, the information providing device 100 determines "location", "tower apartment", "rent/price", "5th floor", "location", "tower apartment", "rent/price", "5th floor It estimates whether the user is interested in the following, ``Has a garden,'' ``Size of balcony,'' ``Year of construction,'' etc. Alternatively, the information providing device 100 estimates whether the user is interested in "water" as a feature of each part of the property.

そして、情報提供装置100は、ユーザが物件全体(自体)に興味がある場合には物件の外観等について、あるいは物件の特定の部分(部位)に興味がある場合には当該部分について、画像が綺麗な物件(審美スコアが高い物件)を提示する。 Then, the information providing device 100 displays an image of the appearance of the property when the user is interested in the entire property (the property itself), or an image of that part when the user is interested in a specific part (part) of the property. Present beautiful properties (properties with high aesthetic scores).

また、情報提供装置100は、タグのAND条件(組合せ)で提案してもよい。例えば、情報提供装置100は、ユーザの閲覧している物件の画像から、ユーザが物件の「風呂」と「外観」に興味があると推定した場合、「風呂」と「外観」の両方とも綺麗な物件を提案する。 Further, the information providing device 100 may propose an AND condition (combination) of tags. For example, if the information providing device 100 estimates that the user is interested in the "bath" and "exterior" of the property from the image of the property that the user is viewing, the information providing device 100 may determine that the "bath" and "exterior" are both beautiful. Suggest properties.

さらに、情報提供装置100は、提案対象となる物件を判定する閾値を高くしてもよい。例えば、情報提供装置100は、ユーザが「綺麗なトイレ」に興味があると推定した場合、「トイレ」の審美スコアの閾値を通常(又は平均)より高く設定し、閾値以上の物件を提案するようにしてもよい。 Furthermore, the information providing apparatus 100 may increase the threshold value for determining a property to be proposed. For example, if the information providing device 100 estimates that the user is interested in "clean restrooms," it sets the aesthetic score threshold for "toilet" higher than normal (or average) and suggests properties that are higher than the threshold value. You can do it like this.

〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係る情報提供装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、端末装置10と情報提供装置100とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the information processing system 1 including the information providing apparatus 100 according to the embodiment will be described using FIG. 2. FIG. 2 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 2, the information processing system 1 according to the embodiment includes a terminal device 10 and an information providing device 100. These various devices are connected via a network N so that they can communicate by wire or wirelessly. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10を1台のみ示したが、これはあくまでも例示であって限定されるものではなく、2台以上であってもよい。 Furthermore, the number of devices included in the information processing system 1 shown in FIG. 2 is not limited to what is illustrated. For example, in FIG. 2, only one terminal device 10 is shown for simplification of illustration, but this is just an example and is not limited, and there may be two or more terminal devices.

端末装置10は、利用者Uによって使用される情報処理装置である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、通信機能を備えたゲーム機やAV機器、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス等である。 The terminal device 10 is an information processing device used by the user U. For example, the terminal device 10 may be a smart device such as a smartphone or a tablet terminal, a feature phone, a PC (Personal Computer), a PDA (Personal Digital Assistant), a game console or AV device with a communication function, a car navigation system, a smart watch, or the like. These include wearable devices such as head-mounted displays, smart glasses, etc.

また、かかる端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報提供装置100と通信することができる。 The terminal device 10 also supports wireless communication networks such as LTE (Long Term Evolution), 4G (4th Generation), and 5G (5th Generation), Bluetooth (registered trademark), and wireless LAN (Local It is possible to connect to a network N via short-distance wireless communication such as a local area network) and communicate with the information providing device 100.

情報提供装置100は、例えばPCやサーバ装置、あるいはメインフレーム又はワークステーション等である。なお、情報提供装置100は、クラウドコンピューティングにより実現されてもよい。 The information providing device 100 is, for example, a PC, a server device, a mainframe, a workstation, or the like. Note that the information providing device 100 may be realized by cloud computing.

〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Configuration example of terminal device]
Next, the configuration of the terminal device 10 will be explained using FIG. 3. FIG. 3 is a diagram showing a configuration example of the terminal device 10. As shown in FIG. As shown in FIG. 3, the terminal device 10 includes a communication section 11, a display section 12, an input section 13, a positioning section 14, a sensor section 20, a control section 30 (controller), and a storage section 40. Be prepared.

(通信部11)
通信部11は、ネットワークN(図2参照)と有線又は無線で接続され、ネットワークNを介して、情報提供装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication Department 11)
The communication unit 11 is connected to a network N (see FIG. 2) by wire or wirelessly, and transmits and receives information to and from the information providing device 100 via the network N. For example, the communication unit 11 is realized by a NIC (Network Interface Card), an antenna, or the like.

(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display section 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic electro-luminescent display (EL display). Further, the display unit 12 is a touch panel type display, but is not limited to this.

(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスである。例えば、入力部13は、文字や数字等を入力するためのボタン等を有する。なお、入力部13は、入出力ポート(I/O port)やUSB(Universal Serial Bus)ポート等であってもよい。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。また、入力部13は、利用者Uから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input section 13)
The input unit 13 is an input device that receives various operations from the user U. For example, the input unit 13 includes buttons for inputting characters, numbers, and the like. Note that the input unit 13 may be an input/output port (I/O port), a USB (Universal Serial Bus) port, or the like. Further, when the display section 12 is a touch panel display, a part of the display section 12 functions as the input section 13. Further, the input unit 13 may be a microphone or the like that receives voice input from the user U. The microphone may be wireless.

(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives a signal (radio wave) sent from a GPS (Global Positioning System) satellite, and based on the received signal, determines position information (for example, latitude and longitude). That is, the positioning unit 14 positions the terminal device 10 . Note that GPS is just one example of GNSS (Global Navigation Satellite System).

また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。 Further, the positioning unit 14 can measure the position using various methods other than GPS. For example, the positioning unit 14 may use various communication functions of the terminal device 10 to measure the position as an auxiliary positioning means for position correction and the like, as described below.

(Wi-Fi測位)
例えば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi-Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 positions the terminal device 10 using the Wi-Fi (registered trademark) communication function of the terminal device 10 or the communication network provided by each communication company. Specifically, the positioning unit 14 performs Wi-Fi communication, etc., and determines the position of the terminal device 10 by measuring the distance to nearby base stations and access points.

(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth(登録商標)機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
Further, the positioning unit 14 may use the Bluetooth (registered trademark) function of the terminal device 10 to measure the position. For example, the positioning unit 14 measures the position of the terminal device 10 by connecting to a beacon transmitter connected by a Bluetooth (registered trademark) function.

(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(geomagnetic positioning)
Furthermore, the positioning unit 14 positions the terminal device 10 based on the geomagnetic pattern of the structure measured in advance and the geomagnetic sensor included in the terminal device 10 .

(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Further, for example, if the terminal device 10 has an RFID (Radio Frequency Identification) tag function equivalent to a contactless IC card used at station ticket gates, stores, etc., or has a function to read an RFID tag. In this case, the location where the terminal device 10 used the terminal device 10 is recorded together with the information that the payment was made. The positioning unit 14 may measure the position of the terminal device 10 by acquiring such information. Further, the position may be determined by an optical sensor, an infrared sensor, or the like provided in the terminal device 10.

測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。 The positioning unit 14 may position the terminal device 10 using one or a combination of the above-mentioned positioning means, if necessary.

(センサ部20)
センサ部20は、端末装置10に搭載又は接続される各種のセンサを含む。なお、接続は、有線接続、無線接続を問わない。例えば、センサ類は、ウェアラブルデバイスやワイヤレスデバイス等、端末装置10以外の検知装置であってもよい。図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。
(sensor section 20)
The sensor unit 20 includes various sensors mounted on or connected to the terminal device 10. Note that the connection may be a wired connection or a wireless connection. For example, the sensors may be a detection device other than the terminal device 10, such as a wearable device or a wireless device. In the example shown in FIG. 3, the sensor unit 20 includes an acceleration sensor 21, a gyro sensor 22, an atmospheric pressure sensor 23, an air temperature sensor 24, a sound sensor 25, an optical sensor 26, a magnetic sensor 27, and an image sensor ( camera) 28.

なお、上記した各センサ21~28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21~28のうちの一部を備える構成であってもよいし、各センサ21~28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。 Note that each of the sensors 21 to 28 described above is merely an example and is not limited to the above. That is, the sensor section 20 may be configured to include a portion of each of the sensors 21 to 28, or may include other sensors such as a humidity sensor in addition to or instead of each of the sensors 21 to 28. .

加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、及び、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。 The acceleration sensor 21 is, for example, a three-axis acceleration sensor, and detects the physical movement of the terminal device 10, such as the moving direction, speed, and acceleration of the terminal device 10. The gyro sensor 22 detects physical movements of the terminal device 10 such as tilt in three axes directions based on the angular velocity of the terminal device 10 and the like. The atmospheric pressure sensor 23 detects the atmospheric pressure around the terminal device 10, for example.

端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21~23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。 Since the terminal device 10 is equipped with the above-mentioned acceleration sensor 21, gyro sensor 22, atmospheric pressure sensor 23, etc., it is possible to implement technologies such as pedestrian autonomous navigation (PDR) using these sensors 21 to 23, etc. It becomes possible to measure the position of the terminal device 10 using the . This makes it possible to obtain indoor position information that is difficult to obtain using positioning systems such as GPS.

例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、利用者Uの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、利用者Uの端末装置10が存在する高度やフロアの階数を知ることもできる。 For example, a pedometer using the acceleration sensor 21 can calculate the number of steps, walking speed, and distance walked. Furthermore, by using the gyro sensor 22, it is possible to know the direction of travel of the user U, the direction of the line of sight, and the inclination of the user's body. Further, from the atmospheric pressure detected by the atmospheric pressure sensor 23, it is also possible to know the altitude and the number of floors where the terminal device 10 of the user U is located.

気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。 The temperature sensor 24 detects, for example, the temperature around the terminal device 10. The sound sensor 25 detects, for example, sounds around the terminal device 10. The optical sensor 26 detects the illuminance around the terminal device 10 . The magnetic sensor 27 detects, for example, the earth's magnetism around the terminal device 10. The image sensor 28 captures an image of the surroundings of the terminal device 10.

上記した気圧センサ23、気温センサ24、音センサ25、光センサ26及び画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。 The above-mentioned atmospheric pressure sensor 23, temperature sensor 24, sound sensor 25, optical sensor 26, and image sensor 28 each detect atmospheric pressure, temperature, sound, and illuminance, and capture images of the surroundings, so that the terminal device 10 It is possible to detect the surrounding environment and situation. Furthermore, it is possible to improve the accuracy of the location information of the terminal device 10 based on the environment and situation around the terminal device 10.

(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33とを備える。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input/output port, etc., and various circuits. Further, the control unit 30 may be configured with hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control section 30 includes a transmitting section 31, a receiving section 32, and a processing section 33.

(送信部31)
送信部31は、例えば入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって検知された各種情報、測位部14によって測位された端末装置10の位置情報等を、通信部11を介して情報提供装置100へ送信することができる。
(Transmission unit 31)
The transmitting unit 31 receives, for example, various information input by the user U using the input unit 13, various information detected by the sensors 21 to 28 mounted on or connected to the terminal device 10, and information measured by the positioning unit 14. The location information of the terminal device 10 and the like can be transmitted to the information providing device 100 via the communication unit 11.

(受信部32)
受信部32は、通信部11を介して、情報提供装置100から提供される各種情報や、情報提供装置100からの各種情報の要求を受信することができる。
(Receiving unit 32)
The receiving unit 32 can receive various information provided from the information providing device 100 and requests for various information from the information providing device 100 via the communication unit 11 .

(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信された情報提供装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire terminal device 10, including the display unit 12 and the like. For example, the processing unit 33 can output various types of information transmitted by the transmitting unit 31 and various types of information received by the receiving unit 32 from the information providing device 100 to the display unit 12 for display.

(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Storage unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. Ru. The storage unit 40 stores various programs, various data, and the like.

〔4.情報提供装置の構成例〕
次に、図4を用いて、実施形態に係る情報提供装置100の構成について説明する。図4は、実施形態に係る情報提供装置100の構成例を示す図である。図4に示すように、情報提供装置100は、通信部110と、記憶部120と、制御部130とを有する。
[4. Configuration example of information providing device]
Next, the configuration of the information providing apparatus 100 according to the embodiment will be described using FIG. 4. FIG. 4 is a diagram illustrating a configuration example of the information providing apparatus 100 according to the embodiment. As shown in FIG. 4, the information providing device 100 includes a communication section 110, a storage section 120, and a control section 130.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線又は無線で接続される。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). Further, the communication unit 110 is connected to the network N (see FIG. 2) by wire or wirelessly.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD、SSD、光ディスク等の記憶装置によって実現される。図4に示すように、記憶部120は、利用者情報データベース121と、履歴情報データベース122と、物件画像情報データベース123とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD, an SSD, or an optical disk. As shown in FIG. 4, the storage unit 120 includes a user information database 121, a history information database 122, and a property image information database 123.

(利用者情報データベース121)
利用者情報データベース121は、利用者Uに関する利用者情報を記憶する。例えば、利用者情報データベース121は、利用者Uの属性等の種々の情報を記憶する。図5は、利用者情報データベース121の一例を示す図である。図5に示した例では、利用者情報データベース121は、「利用者ID(Identifier)」、「年齢」、「性別」、「自宅」、「勤務地」、「興味」といった項目を有する。
(User information database 121)
The user information database 121 stores user information regarding the user U. For example, the user information database 121 stores various information such as user U's attributes. FIG. 5 is a diagram showing an example of the user information database 121. In the example shown in FIG. 5, the user information database 121 has items such as "user ID (identifier),""age,""gender,""home,""worklocation," and "interest."

「利用者ID」は、利用者Uを識別するための識別情報を示す。なお、「利用者ID」は、利用者Uの連絡先(電話番号、メールアドレス等)であってもよいし、利用者Uの端末装置10を識別するための識別情報であってもよい。 “User ID” indicates identification information for identifying user U. Note that the "user ID" may be user U's contact information (telephone number, email address, etc.), or may be identification information for identifying user U's terminal device 10.

また、「年齢」は、利用者IDにより識別される利用者Uの年齢を示す。なお、「年齢」は、利用者Uの具体的な年齢(例えば35歳など)を示す情報であってもよいし、利用者Uの年代(例えば30代など)を示す情報であってもよい。あるいは、「年齢」は、利用者Uの生年月日を示す情報であってもよいし、利用者Uの世代(例えば80年代生まれなど)を示す情報であってもよい。また、「性別」は、利用者IDにより識別される利用者Uの性別を示す。 Moreover, "age" indicates the age of the user U identified by the user ID. Note that the "age" may be information indicating the specific age of the user U (for example, 35 years old, etc.), or may be information indicating the age of the user U (for example, 30s, etc.) . Alternatively, the "age" may be information indicating the date of birth of the user U, or may be information indicating the generation of the user U (for example, born in the 1980s). Furthermore, “gender” indicates the gender of the user U identified by the user ID.

また、「自宅」は、利用者IDにより識別される利用者Uの自宅の位置情報を示す。なお、図5に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 Moreover, "home" indicates the location information of the home of the user U identified by the user ID. In the example shown in FIG. 5, "home" is illustrated as an abstract code such as "LC11", but it may also be latitude and longitude information. Furthermore, for example, "home" may be a region name or address.

また、「勤務地」は、利用者IDにより識別される利用者Uの勤務地(学生の場合は学校)の位置情報を示す。なお、図5に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。 Moreover, "work place" indicates the location information of the work place (school in the case of a student) of the user U identified by the user ID. In the example shown in FIG. 5, the "work location" is illustrated as an abstract code such as "LC12", but it may also be latitude/longitude information or the like. Further, for example, the "work location" may be a region name or address.

また、「興味」は、利用者IDにより識別される利用者Uの興味を示す。すなわち、「興味」は、利用者IDにより識別される利用者Uが関心の高い対象を示す。例えば、「興味」は、利用者Uが検索エンジンに入力して検索した検索クエリ(キーワード)等であってもよい。なお、図5に示す例では、「興味」は、各利用者Uに1つずつ図示するが、複数であってもよい。 Moreover, "interest" indicates the interest of the user U identified by the user ID. That is, "interest" indicates an object in which the user U identified by the user ID has a high interest. For example, "interest" may be a search query (keyword) that the user U inputs into a search engine. In the example shown in FIG. 5, one "interest" is shown for each user U, but there may be a plurality of "interests".

例えば、図5に示す例において、利用者ID「U1」により識別される利用者Uの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、自宅が「LC11」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、勤務地が「LC12」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、「スポーツ」に興味があることを示す。 For example, in the example shown in FIG. 5, the age of the user U identified by the user ID "U1" is "20s", and the gender is "male". Further, for example, the user U identified by the user ID "U1" indicates that his home is "LC11". Further, for example, the user U identified by the user ID "U1" indicates that the work location is "LC12". Further, for example, the user U identified by the user ID "U1" indicates that he is interested in "sports."

ここで、図5に示す例では、「U1」、「LC11」及び「LC12」といった抽象的な値を用いて図示するが、「U1」、「LC11」及び「LC12」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。 Here, in the example shown in FIG. 5, abstract values such as "U1", "LC11", and "LC12" are used for illustration, but "U1", "LC11", and "LC12" have specific values. It is assumed that information such as character strings and numerical values is stored. Below, abstract values may be illustrated in diagrams related to other information as well.

なお、利用者情報データベース121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、利用者情報データベース121は、利用者Uの端末装置10に関する各種情報を記憶してもよい。また、利用者情報データベース121は、利用者Uのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。例えば、利用者情報データベース121は、氏名、家族構成、出身地(地元)、職業、職位、収入、資格、居住形態(戸建、マンション等)、車の有無、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、習い事(場所、時間帯等)、趣味、興味、ライフスタイル等の情報を記憶してもよい。 Note that the user information database 121 is not limited to the above, and may store various information depending on the purpose. For example, the user information database 121 may store various information regarding the terminal device 10 of the user U. In addition, the user information database 121 includes information such as demographic (demographic attributes), psychographic (psychological attributes), geographic (geographical attributes), behavioral (behavioral attributes), etc. of user U. Information regarding attributes may also be stored. For example, the user information database 121 includes name, family composition, place of birth (locality), occupation, position, income, qualifications, type of residence (single-family house, condominium, etc.), presence or absence of a car, commuting/commuting time, commuting/commuting, etc. Memorizes information such as routes, commuter pass sections (stations, lines, etc.), frequently used stations (other than the stations closest to your home or work), lessons (location, time zone, etc.), hobbies, interests, lifestyle, etc. You can.

(履歴情報データベース122)
履歴情報データベース122は、利用者Uの行動を示す履歴情報(ログデータ)に関する各種情報を記憶する。図6は、履歴情報データベース122の一例を示す図である。図6に示した例では、履歴情報データベース122は、「利用者ID」、「位置履歴」、「検索履歴」、「閲覧履歴」、「購入履歴」、「投稿履歴」といった項目を有する。
(History information database 122)
The history information database 122 stores various information related to history information (log data) indicating the actions of the user U. FIG. 6 is a diagram showing an example of the history information database 122. In the example shown in FIG. 6, the history information database 122 includes items such as "user ID,""locationhistory,""searchhistory,""browsinghistory,""purchasehistory," and "posting history."

「利用者ID」は、利用者Uを識別するための識別情報を示す。また、「位置履歴」は、利用者Uの位置や移動の履歴である位置履歴を示す。また、「検索履歴」は、利用者Uが入力した検索クエリの履歴である検索履歴を示す。また、「閲覧履歴」は、利用者Uが閲覧したコンテンツの履歴である閲覧履歴を示す。また、「購入履歴」は、利用者Uによる購入の履歴である購入履歴を示す。また、「投稿履歴」は、利用者Uによる投稿の履歴である投稿履歴を示す。なお、「投稿履歴」は、利用者Uの所有物に関する質問を含んでいてもよい。 “User ID” indicates identification information for identifying user U. Further, “position history” indicates a position history that is a history of the user U's position and movement. Further, “search history” indicates a search history that is a history of search queries input by the user U. In addition, “browsing history” indicates a browsing history that is a history of contents that the user U has viewed. Moreover, "purchase history" indicates a purchase history that is a history of purchases by user U. Moreover, "posting history" indicates a posting history that is a history of postings by user U. Note that the "posting history" may include questions regarding user U's belongings.

例えば、図6に示す例において、利用者ID「U1」により識別される利用者Uは、「位置履歴#1」の通りに移動し、「検索履歴#1」の通りに検索し、「閲覧履歴#1」の通りにコンテンツを閲覧し、「購入履歴#1」の通りに所定の店舗等で所定の商品等を購入し、「投稿履歴」の通りに投稿したことを示す。 For example, in the example shown in FIG. 6, user U identified by user ID "U1" moves as per "location history #1", searches as per "search history #1", and searches as per "view history #1". This indicates that the content was viewed according to "history #1", a predetermined product, etc. was purchased at a predetermined store etc. according to "purchase history #1", and the content was posted according to "posting history".

ここで、図6に示す例では、「U1」、「位置履歴#1」、「検索履歴#1」、「閲覧履歴#1」、「購入履歴#1」及び「投稿履歴#1」といった抽象的な値を用いて図示するが、「U1」、「位置履歴#1」、「検索履歴#1」、「閲覧履歴#1」、「購入履歴#1」及び「投稿履歴#1」には、具体的な文字列や数値等の情報が記憶されるものとする。 Here, in the example shown in FIG. 6, abstracts such as "U1", "location history #1", "search history #1", "browsing history #1", "purchase history #1" and "posting history #1" are used. Although the figures are illustrated using ``U1'', ``Location history #1'', ``Search history #1'', ``Browsing history #1'', ``Purchase history #1'' and ``Posting history #1'', It is assumed that information such as specific character strings and numerical values is stored.

なお、履歴情報データベース122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、履歴情報データベース122は、利用者Uの所定のサービスの利用履歴等を記憶してもよい。また、履歴情報データベース122は、利用者Uの実店舗の来店履歴又は施設の訪問履歴等を記憶してもよい。また、履歴情報データベース122は、利用者Uの端末装置10を用いた決済(電子決済)での決済履歴等を記憶してもよい。 Note that the history information database 122 is not limited to the above, and may store various information depending on the purpose. For example, the history information database 122 may store the user U's usage history of a predetermined service. Further, the history information database 122 may store the user U's visit history to a physical store, visit history to a facility, or the like. Further, the history information database 122 may store the payment history of user U's payment using the terminal device 10 (electronic payment).

(物件画像情報データベース123)
物件画像情報データベース123は、物件の画像に関する各種情報を記憶する。図7は、物件画像情報データベース123の一例を示す図である。図7に示した例では、物件画像情報データベース123は、「物件」、「対象物」、「カテゴリ」、「特徴」、「審美スコア」といった項目を有する。
(Property image information database 123)
The property image information database 123 stores various information regarding images of properties. FIG. 7 is a diagram showing an example of the property image information database 123. In the example shown in FIG. 7, the property image information database 123 has items such as "property", "object", "category", "feature", and "aesthetic score".

「物件」は、物件を識別するための識別情報を示す。また、「対象物」は、物件の画像の対象物を識別するための識別情報を示す。すなわち、「対象物」は、当該対象物が含まれた物件の画像を識別するための識別情報を示す。また、「カテゴリ」は、物件の画像の対象物のカテゴリを示す。また、「特徴」は、物件の画像の対象物の特徴を示す。なお、物件の画像の対象物の特徴は、物件の画像の対象物のカテゴリや審美スコア等を含んでいてもよい。また、「審美スコア」は、物件の画像の対象物の審美スコアを示す。 "Property" indicates identification information for identifying a property. Further, "object" indicates identification information for identifying the object in the image of the property. That is, "object" indicates identification information for identifying an image of a property that includes the object. Further, "category" indicates the category of the object of the image of the property. Further, "feature" indicates the feature of the object in the image of the property. Note that the characteristics of the object in the image of the property may include the category, aesthetic score, etc. of the object in the image of the property. Further, the "aesthetic score" indicates the aesthetic score of the object in the image of the property.

例えば、図7に示す例において、物件「A」の画像の対象物「A1」は、カテゴリ「外観」に属し、特徴「綺麗」であり、審美スコア「55」であることを示す。 For example, in the example shown in FIG. 7, the object "A1" in the image of the property "A" belongs to the category "appearance", has the feature "beautiful", and has an aesthetic score of "55".

ここで、図7に示す例では、「A」、「A1」といった抽象的な値を用いて図示するが、「A」、「A1」には、具体的な文字列や数値等の情報が記憶されるものとする。 Here, in the example shown in FIG. 7, abstract values such as "A" and "A1" are used for illustration, but "A" and "A1" contain information such as concrete character strings and numerical values. shall be remembered.

なお、物件画像情報データベース123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、物件画像情報データベース123は、「所在地」、「タワーマンション」、「賃料/価格」、「5階以下」、「庭がある」、「ベランダの広さ」、「築年数」等、物件全体の特徴に関する情報等を記憶してもよい。また、物件画像情報データベース123は、対象となる物件の近隣(周囲)に存在する他の物件の外観に関する情報等を記憶してもよい。 Note that the property image information database 123 is not limited to the above, and may store various information depending on the purpose. For example, the property image information database 123 contains property information such as "location", "tower apartment", "rent/price", "5th floor or below", "has a garden", "size of balcony", "year of construction", etc. Information regarding the overall characteristics may also be stored. Further, the property image information database 123 may store information regarding the external appearance of other properties existing in the vicinity (surroundings) of the target property.

(制御部130)
図4に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報提供装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図4に示す例では、制御部130は、取得部131と、算出部132と、集計部133と、生成部134と、決定部135と、提供部136とを有する。
(Control unit 130)
Returning to FIG. 4, the explanation will be continued. The control unit 130 is a controller, and uses, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array) to control the information providing apparatus 100. This is achieved by executing various programs (corresponding to an example of an information processing program) stored in an internal storage device using a storage area such as a RAM as a work area. In the example shown in FIG. 4, the control unit 130 includes an acquisition unit 131, a calculation unit 132, a totaling unit 133, a generation unit 134, a determination unit 135, and a provision unit 136.

(取得部131)
取得部131は、利用者Uにより入力された検索クエリを取得する。例えば、取得部131は、利用者Uが検索エンジン等に検索クエリを入力してキーワード検索を行った際に、通信部110を介して、当該検索クエリを取得する。すなわち、取得部131は、通信部110を介して、利用者Uにより検索エンジンやサイト又はアプリの検索窓に入力されたキーワードを取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires a search query input by the user U. For example, when the user U inputs a search query into a search engine or the like and performs a keyword search, the acquisition unit 131 acquires the search query via the communication unit 110. That is, the acquisition unit 131 acquires, via the communication unit 110, a keyword input by the user U into a search window of a search engine, site, or application.

また、取得部131は、通信部110を介して、物件の画像を取得する。例えば、取得部131は、通信部110を介して、不動産の売買、交換、賃貸、管理及びその代理もしくは仲介を行う不動産業者等から、物件の画像の投稿を受け付ける。あるいは、取得部131は、通信部110を介して、利用者Uの端末から、利用者Uが所有する物件の画像の投稿や、利用者Uが興味を持っている物件の画像の指定を受け付け、それらの物件の画像を取得する。なお、物件の画像は、物件の特定の部分(部位)の画像であってもよい。 Further, the acquisition unit 131 acquires an image of the property via the communication unit 110. For example, the acquisition unit 131 receives, via the communication unit 110, posting of images of properties from real estate agents and the like who buy, sell, exchange, rent, manage, and act as agents or intermediaries for real estate. Alternatively, the acquisition unit 131 receives, from the terminal of the user U, an image of a property owned by the user U or a designation of an image of a property that the user U is interested in via the communication unit 110. , obtain images of those properties. Note that the image of the property may be an image of a specific part (site) of the property.

また、取得部131は、通信部110を介して、利用者Uに関する利用者情報を取得する。例えば、取得部131は、利用者Uの端末装置10から、利用者Uを示す識別情報(利用者ID等)や、利用者Uの位置情報、利用者Uの属性情報等を取得する。また、取得部131は、利用者Uのユーザ登録時に、利用者Uを示す識別情報や、利用者Uの属性情報等を取得してもよい。そして、取得部131は、利用者情報を、記憶部120の利用者情報データベース121に登録する。 The acquisition unit 131 also acquires user information regarding the user U via the communication unit 110. For example, the acquisition unit 131 acquires identification information indicating the user U (user ID, etc.), location information of the user U, attribute information of the user U, etc. from the terminal device 10 of the user U. Further, the acquisition unit 131 may acquire identification information indicating the user U, attribute information of the user U, etc. at the time of user U's user registration. The acquisition unit 131 then registers the user information in the user information database 121 of the storage unit 120.

また、取得部131は、通信部110を介して、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、取得部131は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報を取得する。そして、取得部131は、各種の履歴情報を、記憶部120の履歴情報データベース122に登録する。 Further, the acquisition unit 131 acquires various types of history information (log data) indicating the behavior of the user U via the communication unit 110. For example, the acquisition unit 131 acquires various types of history information indicating the behavior of the user U from the terminal device 10 of the user U or from various servers based on the user ID or the like. The acquisition unit 131 then registers various types of history information in the history information database 122 of the storage unit 120.

(算出部132)
算出部132は、物件に紐づけられた画像の審美スコアを算出する。なお、算出部132は、事前に、ユーザが閲覧可能な全ての物件の画像の審美スコアを算出して画像に付与していてもよい。また、算出部132は、ユーザが閲覧した物件のみ、その物件の画像の審美スコアを算出するようにしてもよい。
(Calculation unit 132)
The calculation unit 132 calculates the aesthetic score of the image linked to the property. Note that the calculation unit 132 may calculate aesthetic scores of all images of properties viewable by the user in advance and assign them to the images. Further, the calculation unit 132 may calculate the aesthetic score of the image of only the property viewed by the user.

(集計部133)
集計部133は、ユーザが見ている物件の特徴を集計する。例えば、集計部133は、ユーザが見ている物件の画像から注目ポイントを抽出して画像の特徴としてタグ付けし、ユーザが見ている画像の特徴を示すタグを集計する。そして、集計部133は、ユーザが閲覧している画像の特徴の共通性を推定する。
(Tally unit 133)
The aggregation unit 133 aggregates the characteristics of the property that the user is viewing. For example, the totaling unit 133 extracts points of interest from the image of the property that the user is viewing, tags them as features of the image, and totals the tags that indicate the characteristics of the image that the user is viewing. Then, the aggregation unit 133 estimates the commonality of the features of the images that the users are viewing.

なお、集計部133は、物件ごとに登録される画像のうち閲覧態様が所定の条件を満たす画像の傾向(又は画像の特徴の傾向)を特定する特定部としても機能する。また、特定部(集計部133)は、ユーザが閲覧した画像の審美スコアを特定する。画像の審美スコアは、予め画像に付与されている審美スコア(例えば、他のシステム等により設定された既存の審美スコア等)であってもよい。例えば、特定部(集計部133)は、よく閲覧されている画像の傾向として「水回り」が多い、「ベランダ」が多い等の「傾向」を特定する。あるいは、特定部(集計部133)は、画像に付随する「水回り」、「ベランダ」、「審美スコア」等の情報の傾向を特定する。なお、特定部(集計部133)は、画像認識技術で画像に含まれる撮影対象を特定してもよい。また、集計部133は、ユーザが閲覧したか否かに関係なく、不特定多数の物件の画像から各物件の画像の特徴を抽出する抽出部としても機能する。 Note that the aggregation unit 133 also functions as a specifying unit that specifies a tendency of images (or a tendency of image characteristics) whose viewing mode satisfies a predetermined condition among images registered for each property. Further, the identification unit (aggregation unit 133) identifies the aesthetic score of the image viewed by the user. The aesthetic score of the image may be an aesthetic score assigned to the image in advance (for example, an existing aesthetic score set by another system, etc.). For example, the identification unit (aggregation unit 133) identifies a “tendency” of images that are frequently viewed, such as “water areas” being more common and “balconies” being more common. Alternatively, the identification unit (aggregation unit 133) identifies trends in information such as “water area”, “balcony”, “aesthetic score”, etc. that accompany the image. Note that the identification unit (aggregation unit 133) may identify the object to be photographed included in the image using image recognition technology. Furthermore, the aggregation unit 133 also functions as an extraction unit that extracts the characteristics of each property image from an unspecified number of property images, regardless of whether the user has viewed the images.

また、集計部133は、物件の画像ごとにカテゴリを推定して分類するモデルを作成/更新してもよい。例えば、集計部133は、物件の画像と、画像のカテゴリとを入力データとして機械学習を行い、物件の画像のカテゴリを推定して分類するモデルを作成/更新する。 Further, the aggregation unit 133 may create/update a model that estimates and classifies categories for each property image. For example, the aggregation unit 133 performs machine learning using the property image and the category of the image as input data, and creates/updates a model that estimates and classifies the category of the property image.

(生成部134)
生成部134は、画像の特徴の集計結果に基づいて画像の特徴に該当する検索条件を生成する。例えば、生成部134は、ユーザが閲覧した物件の画像の対象物の特徴の集計結果に基づいて特徴に該当する検索条件を生成する。また、生成部は、特定された傾向(閲覧態様が所定の条件を満たす画像の傾向)に応じた物件を検索するための検索条件を生成する。また、生成部134は、審美スコアが所定の条件を満たす画像に基づいて、検索条件を生成する。例えば、生成部134は、よく閲覧されている画像の傾向として「水回り」が多い、「ベランダ」が多い等の「傾向」に応じた検索条件を生成する。あるいは、生成部134は、画像に付随する「水回り」、「ベランダ」、「審美スコア」等の情報の傾向に関して、画像に付与されている数が多いタグや、スコアが高いといった傾向に応じた検索条件を生成する。また、生成部134は、ユーザの興味関心を判定するために内部的にもつスコア(興味関心の度合いを示すスコア)の傾向に応じた検索条件を生成してもよい。
(Generation unit 134)
The generation unit 134 generates search conditions corresponding to the image features based on the aggregation results of the image features. For example, the generation unit 134 generates search conditions corresponding to the characteristics based on the aggregation result of the characteristics of the object in the image of the property viewed by the user. The generation unit also generates search conditions for searching for properties according to the identified tendency (tendency of images whose viewing mode satisfies a predetermined condition). Further, the generation unit 134 generates search conditions based on images whose aesthetic scores satisfy a predetermined condition. For example, the generation unit 134 generates a search condition according to a "tendency" of frequently viewed images, such as "plumbing" or "balcony". Alternatively, the generation unit 134 may generate information based on the tendency of information such as "water area", "balcony", "aesthetic score", etc. attached to the image, such as a tendency such as a large number of tags attached to the image or a tendency to have a high score. Generate search conditions. Further, the generation unit 134 may generate search conditions according to the tendency of an internal score (score indicating the degree of interest) for determining the user's interest.

また、生成部134は、ユーザが閲覧した物件の画像の対象物の傾向に基づいて、ユーザが興味を有する物件の特定の部分を推定し、当該特定の部分が所定の条件を満たす物件を検索するための検索条件を生成する。 Furthermore, the generation unit 134 estimates a specific part of the property that the user is interested in based on the tendency of objects in the image of the property viewed by the user, and searches for properties in which the specific part satisfies predetermined conditions. Generate search conditions for

例えば、生成部134は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の外観に興味を持っていると推定される場合、外観の視覚的な態様に関する検索条件を生成する。また、生成部134は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の水回りに興味を持っていると推定される場合、水回りに関する検索条件を生成する。また、生成部134は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の収納に興味を持っていると推定される場合、収納に関する検索条件を生成する。 For example, if it is estimated that the user is interested in the exterior of the property based on the object in the image of the property that the user has viewed, the generation unit 134 generates search conditions related to the visual aspect of the exterior. Furthermore, when it is estimated that the user is interested in the plumbing of the property based on the object in the image of the property that the user has viewed, the generation unit 134 generates search conditions related to the plumbing. Further, the generation unit 134 generates search conditions related to storage when it is estimated that the user is interested in storing the property based on the object in the image of the property viewed by the user.

(決定部135)
決定部135は、画像の特徴の集計結果に基づいて画像の特徴に該当する検索条件を選択し、検索条件に応じた物件の画像の審美スコアをもとにリスティングする物件を決定する。また、決定部135は、画像の特徴に応じたタグを画像に付し、ユーザによりタグが検索された場合に、検索されたタグに応じた画像の審美スコアが所定の条件を満たす物件をリスティングする物件として決定する。このとき、決定部135は、画像の審美スコアが高い順に物件をリスティングしてもよい。これにより、決定部135は、審美スコアに基づく物件リストを作成する。
(Decision unit 135)
The determining unit 135 selects a search condition corresponding to the image feature based on the aggregation result of the image feature, and determines a property to be listed based on the aesthetic score of the image of the property according to the search condition. Further, the determining unit 135 attaches a tag to an image according to the characteristics of the image, and when a tag is searched by a user, the determining unit 135 lists properties whose aesthetic score of the image according to the searched tag satisfies a predetermined condition. The property is determined to be At this time, the determining unit 135 may list the properties in descending order of the aesthetic score of the images. Thereby, the determining unit 135 creates a property list based on the aesthetic score.

例えば、決定部135は、よく閲覧されている画像の傾向として「水回り」が多い、「ベランダ」が多い等の「傾向」に応じた検索条件を選択する。あるいは、決定部135は、画像に付随する「水回り」、「ベランダ」、「審美スコア」等の情報の傾向に関して、画像に付与されている数が多いタグや、スコアが高いといった傾向に応じた検索条件を選択する。また、決定部135は、ユーザの興味関心を判定するために内部的にもつスコア(興味関心の度合いを示すスコア)の傾向に応じた検索条件を選択してもよい。 For example, the determining unit 135 selects a search condition according to a "tendency" of frequently viewed images, such as "water surroundings" being frequently viewed or "balconies" being frequently viewed. Alternatively, the determining unit 135 may determine whether the image has a large number of tags or a high score with respect to the tendency of information such as "water area", "balcony", "aesthetic score", etc. attached to the image. Select search conditions. Further, the determining unit 135 may select search conditions according to the tendency of an internal score (score indicating the degree of interest) for determining the user's interest.

決定部135は、物件に紐づけられた画像を解析して、画像の対象物と、画像の審美スコアとをもとにリスティングする物件を決定する。 The determining unit 135 analyzes images linked to properties and determines properties to be listed based on the object in the image and the aesthetic score of the image.

決定部135は、モデルを用いて検索条件に該当する画像を選択し、選択された画像の審美スコアをもとに上位スコアの画像の物件をリスティングする物件として決定する。すなわち、決定部135は、モデルを用いてタグに応じた画像を選択し、選択された画像の審美スコアが所定の条件を満たす物件をリスティングする物件として決定する。また、決定部135は、学習モデルを用いて検索条件に該当する物件の画像の審美スコアを出力する。 The determining unit 135 selects images that meet the search conditions using the model, and determines the property of the image with the top score as the property to be listed based on the aesthetic score of the selected image. That is, the determining unit 135 selects an image according to the tag using the model, and determines as a property to be listed a property whose aesthetic score of the selected image satisfies a predetermined condition. Further, the determining unit 135 uses the learning model to output the aesthetic score of the image of the property that corresponds to the search condition.

また、決定部135は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の特定の部分に興味を持っていると推定される場合、特定の部分に関する検索条件に応じた物件をリスティングする物件として決定する。例えば、決定部135は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の外観に興味を持っていると推定される場合、外観の視覚的な態様に関する検索条件に応じた物件をリスティングする物件として決定する。また、決定部135は、外観の視覚的な態様に関する検索条件に応じた物件をリスティングする場合、築年数が所定の閾値以上の物件(例えば、築30年以上の物件)の物件を対象から除外する。また、決定部135は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の水回りに興味を持っていると推定される場合、水回りに関する検索条件に応じた物件をリスティングする物件として決定する。また、決定部135は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の収納に興味を持っていると推定される場合、収納に関する検索条件に応じた物件をリスティングする物件として決定する。 Further, if it is estimated that the user is interested in a specific part of the property based on the object in the image of the property that the user has viewed, the determining unit 135 lists the property according to the search conditions regarding the specific part. The property is determined to be For example, if it is estimated that the user is interested in the exterior of the property based on the object in the image of the property viewed by the user, the determining unit 135 selects a property that meets the search conditions regarding the visual aspect of the exterior. Decide as a property to list. Further, when listing properties according to the search conditions regarding the visual appearance of the exterior, the determining unit 135 excludes properties whose building age is at least a predetermined threshold (for example, properties that are 30 years old or older) from the list. do. Further, when it is estimated that the user is interested in the plumbing of the property based on the object in the image of the property viewed by the user, the determining unit 135 lists properties that meet the search conditions regarding the plumbing. Determine as. Further, if it is estimated that the user is interested in storage of the property based on the object in the image of the property viewed by the user, the determining unit 135 determines the property that meets the search conditions regarding storage as the property to be listed. do.

このとき、決定部135は、モデルを用いて物件の特定の部分に該当する画像を選択し、選択された特定の部分の画像の審美スコアをもとに上位スコアの画像の物件をリスティングする物件として決定してもよい。 At this time, the determining unit 135 selects an image corresponding to a specific part of the property using the model, and lists properties with images with high scores based on the aesthetic score of the image of the selected specific part. It may be determined as

例えば、決定部135は、モデルを用いて物件の外観に該当する画像を選択し、選択された外観の画像の審美スコアをもとに上位スコアの画像の物件をリスティングする物件として決定する。このとき、決定部135は、物件の外観の画像の審美スコアをもとにリスティングする物件を決定する場合、築年数が所定の閾値以上の物件(例えば、築30年以上の物件)を対象から除外する。 For example, the determining unit 135 uses a model to select an image that corresponds to the exterior of the property, and based on the aesthetic score of the selected exterior image, determines the property with the image with the highest score as the property to be listed. At this time, when determining a property to list based on the aesthetic score of the image of the exterior of the property, the determining unit 135 selects properties whose building age is at least a predetermined threshold (for example, properties which are 30 years old or older) from the list. exclude.

また、決定部135は、モデルを用いて物件の水回りに該当する画像を選択し、選択された水回りの画像の審美スコアをもとに上位スコアの画像の物件をリスティングする物件として決定する。 Further, the determining unit 135 selects images corresponding to the water area of the property using the model, and determines the property with the image with the top score as the property to be listed based on the aesthetic score of the selected image of the water area. .

また、決定部135は、モデルを用いて物件の収納に該当する画像を選択し、選択された収納の画像の審美スコアをもとに上位スコアの画像の物件をリスティングする物件として決定する。 Further, the determining unit 135 uses the model to select an image corresponding to a storage property, and based on the aesthetic score of the selected storage image, determines the property of the image with the top score as the property to be listed.

(提供部136)
提供部136は、リスティングされた物件をユーザに提示する。すなわち、提供部136は、検索条件に応じた物件をユーザに提示する。例えば、提供部136は、タグの集計結果に基づいて、タグに該当する検索条件を生成し、検索条件に関連する物件を提示する。このとき、提供部136は、モデルを用いて検索条件に該当する物件を選択し、検索条件に関連する物件を提示する。また、提供部は、学習モデルを用いて検索条件に該当する物件の画像の審美スコアを出力する。
(Providing unit 136)
The providing unit 136 presents the listed properties to the user. That is, the providing unit 136 presents properties according to the search conditions to the user. For example, the providing unit 136 generates a search condition corresponding to the tag based on the tag aggregation result, and presents properties related to the search condition. At this time, the providing unit 136 uses the model to select properties that meet the search conditions and presents properties related to the search conditions. Further, the providing unit outputs the aesthetic score of the image of the property that corresponds to the search condition using the learning model.

提供部136は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の特定の部分に興味を持っていると推定される場合、特定の部分に関する検索条件に応じた物件をユーザに提示する。 If it is estimated that the user is interested in a specific part of the property based on the object in the image of the property that the user has viewed, the providing unit 136 presents the user with properties that match the search conditions regarding the specific part. do.

例えば、提供部136は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の外観に興味を持っていると推定される場合、外観の視覚的な態様(外観が綺麗等)に関する検索条件に応じた物件をユーザに提示する。このとき、提供部136は、外観の視覚的な態様に関する検索条件に応じた物件をユーザに提示する場合、築年数が所定の閾値以上の物件(例えば、築30年以上の物件)の物件を対象から除外する。 For example, if it is estimated that the user is interested in the exterior of the property based on the object in the image of the property that the user has viewed, the providing unit 136 performs a search regarding the visual aspects of the exterior (such as whether the exterior is beautiful). Present properties to the user that meet the conditions. At this time, when presenting properties to the user according to the search conditions regarding the visual aspect of the exterior, the providing unit 136 selects properties whose building age is at least a predetermined threshold (for example, properties that are 30 years old or older). Exclude from target.

また、提供部136は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の水回りに興味を持っていると推定される場合、水回りに関する検索条件に応じた物件をユーザに提示する。 Further, if it is estimated that the user is interested in the plumbing of the property based on the object in the image of the property that the user has viewed, the providing unit 136 presents the user with properties that match the search conditions regarding the plumbing. do.

また、提供部136は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の収納に興味を持っていると推定される場合、収納に関する検索条件に応じた物件をユーザに提示する。 Further, when it is estimated that the user is interested in storing the property based on the object in the image of the property that the user has viewed, the providing unit 136 presents the user with properties that meet the search conditions regarding storage.

〔5.処理手順〕
次に、図8を用いて実施形態に係る情報提供装置100による処理手順について説明する。図8は、実施形態に係る処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報提供装置100の制御部130によって繰り返し実行される。
[5. Processing procedure]
Next, a processing procedure by the information providing apparatus 100 according to the embodiment will be described using FIG. 8. FIG. 8 is a flowchart showing the processing procedure according to the embodiment. Note that the processing procedure shown below is repeatedly executed by the control unit 130 of the information providing device 100.

図8に示すように、情報提供装置100の取得部131は、通信部110を介して、物件の画像を収集する(ステップS101)。物件の画像は、物件の特定の部分(部位)の画像であってもよい。 As shown in FIG. 8, the acquisition unit 131 of the information providing device 100 collects images of the property via the communication unit 110 (step S101). The image of the property may be an image of a specific part (site) of the property.

続いて、情報提供装置100の算出部132は、物件の画像の審美スコアを算出する(ステップS102)。例えば、算出部132は、物件の画像の対象物の審美スコアを算出する。 Subsequently, the calculation unit 132 of the information providing device 100 calculates the aesthetic score of the image of the property (step S102). For example, the calculation unit 132 calculates the aesthetic score of the object in the image of the property.

続いて、情報提供装置100の集計部133は、ユーザが閲覧している画像の特徴の共通性を推定する(ステップS103)。例えば、集計部133は、ユーザが閲覧した物件の画像から注目ポイントを抽出して画像の特徴としてタグ付けし、ユーザが閲覧する画像の特徴を示すタグを集計する。画像の特徴は、画像の対象物の特徴であってもよい。 Subsequently, the aggregation unit 133 of the information providing device 100 estimates the commonality of the features of the images that the users are viewing (step S103). For example, the tallying unit 133 extracts points of interest from images of properties viewed by the user, tags them as features of the image, and tallies tags indicating the features of the images viewed by the user. The features of the image may be features of the object in the image.

続いて、情報提供装置100の生成部134は、画像の特徴の共通性に基づいて検索条件を生成する(ステップS104)。 Next, the generation unit 134 of the information providing device 100 generates search conditions based on the commonality of the image features (step S104).

続いて、情報提供装置100の決定部135は、検索条件に関連する物件をリスティングする物件として決定する(ステップS104)。例えば、決定部135は、モデルを用いて検索条件に該当する物件を選択し、検索条件に関連する物件のリスト(物件リスト)を作成する。 Subsequently, the determining unit 135 of the information providing device 100 determines a property related to the search condition as a property to be listed (step S104). For example, the determining unit 135 uses a model to select properties that meet the search conditions, and creates a list of properties related to the search conditions (property list).

続いて、情報提供装置100の提供部136は、通信部110を介して、決定された物件(リスティングされた物件)に関する情報をユーザに提示する(ステップS6)。例えば、提供部136は、検索条件に関連する物件のリスト(物件リスト)をユーザに提示する。 Subsequently, the providing unit 136 of the information providing device 100 presents information regarding the determined property (listed property) to the user via the communication unit 110 (step S6). For example, the providing unit 136 presents the user with a list of properties related to the search conditions (property list).

〔6.変形例〕
上述した端末装置10及び情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[6. Modified example]
The terminal device 10 and the information providing device 100 described above may be implemented in various different forms other than the above embodiments. Therefore, a modification of the embodiment will be described below.

上記の実施形態において、情報提供装置100が実行している処理の一部又は全部は、実際には、端末装置10が実行してもよい。例えば、スタンドアローン(Stand-alone)で(端末装置10単体で)処理が完結してもよい。この場合、端末装置10に、上記の実施形態における情報提供装置100の機能が備わっているものとする。また、上記の実施形態では、端末装置10は情報提供装置100と連携しているため、利用者Uから見れば、情報提供装置100の処理も端末装置10が実行しているように見える。すなわち、他の観点では、端末装置10は、情報提供装置100を備えているともいえる。 In the embodiment described above, part or all of the processing executed by the information providing device 100 may actually be executed by the terminal device 10. For example, the process may be completed stand-alone (by the terminal device 10 alone). In this case, it is assumed that the terminal device 10 has the functions of the information providing device 100 in the above embodiment. Furthermore, in the embodiment described above, since the terminal device 10 cooperates with the information providing device 100, it appears to the user U that the processing of the information providing device 100 is also executed by the terminal device 10. That is, from another perspective, it can be said that the terminal device 10 includes the information providing device 100.

また、上記の実施形態において、情報提供装置100は、画像(又はその特徴)とカテゴリとの組をデータセットとし、ニューラルネットワークによる機械学習の手法等を用いて、画像ごとにカテゴリを推定して分類する分類モデルを作成してもよい。すなわち、情報提供装置100は、例えばRNN(Recurrent Neural Network)やLSTM(Long short-term memory)等を用いた機械学習を経て生成される分類モデルに画像(又はその特徴)を入力し、画像のカテゴリを推定して分類してもよい。なお、RNNやLSTMは、アテンション(Attention)の仕組みに基づくニューラルネットワークであってもよい。 Furthermore, in the above embodiment, the information providing apparatus 100 uses a set of an image (or its feature) and a category as a data set, and estimates a category for each image using a machine learning method using a neural network or the like. A classification model for classification may be created. That is, the information providing device 100 inputs an image (or its characteristics) into a classification model generated through machine learning using, for example, RNN (Recurrent Neural Network) or LSTM (Long short-term memory), and analyzes the image. You may classify by estimating the category. Note that the RNN and LSTM may be neural networks based on an attention mechanism.

また、上記の実施形態において、情報提供装置100は、所定の変換規則(ルール)に従って(ルールベースで)、画像ごとにカテゴリを推定して分類してもよい。 Furthermore, in the embodiment described above, the information providing apparatus 100 may estimate and classify a category for each image according to a predetermined conversion rule (rule-based).

また、上記の実施形態において、情報提供装置100は、物件の画像のカテゴリ(外観、キッチン、トイレ、リビング、エントランス等)と、物件の画像の審美スコアとを組み合わせて物件の画像の特徴としてもよい。 Further, in the above embodiment, the information providing device 100 combines the category of the property image (exterior, kitchen, toilet, living room, entrance, etc.) and the aesthetic score of the property image, and uses the property image as a feature. good.

また、上記の実施形態において、情報提供装置100は、ユーザが閲覧している物件の画像の特徴から、ユーザが物件の特定の部分(部位)の色や設備に興味があると推定される場合、ユーザが興味を持っている物件の特定の部分の色や設備に関する検索条件に応じた物件をユーザに提示する。例えば、情報提供装置100は、ユーザが「外観が赤い物件」や「キッチンや洗面台等におしゃれな蛇口(デザイン性のある蛇口)がある物件」を中心に閲覧している場合、「外観が赤い」、「おしゃれな蛇口」等の検索条件に応じた物件をユーザに提示する。このとき、情報提供装置100は、審美スコアのように、外観の赤さを示すスコアや、蛇口のおしゃれさを示すスコア等を算出するようにしてもよい。 Furthermore, in the above embodiment, when the information providing apparatus 100 estimates that the user is interested in the color or equipment of a specific part of the property based on the characteristics of the image of the property that the user is viewing, , presents the user with properties according to search conditions regarding the color and equipment of a specific part of the property that the user is interested in. For example, if the user is mainly viewing "properties with a red exterior" or "properties with stylish faucets (designed faucets) in the kitchen, sink, etc.", the information providing device 100 may display "properties with a red exterior". '', ``stylish faucet,'' etc., properties that match search conditions are presented to the user. At this time, the information providing device 100 may calculate a score indicating the redness of the appearance, a score indicating the fashionability of the faucet, etc., such as an aesthetic score.

また、上記の実施形態において、情報提供装置100は、ユーザが物件の外観に興味を持っていると推定される場合、対象となる物件の外観の画像のみならず、その物件の近隣(周囲)に存在する他の物件の外観を含む画像も提示するようにしてもよい。対象となる物件自体の外観が良くても、近隣(周囲)に存在する他の物件の外観との調和がとれていなかったり、他の物件の外観との関係で印象が異なったりする可能性があるためである。 In the above embodiment, when it is estimated that the user is interested in the exterior of a property, the information providing device 100 not only displays an image of the exterior of the target property but also images of the neighborhood (surroundings) of the property. It may also be possible to present images including external appearances of other properties existing in the area. Even if the exterior of the target property itself is good, there is a possibility that it will not harmonize with the exterior of other properties in the neighborhood (surroundings), or that the impression will be different in relation to the exterior of other properties. This is because there is.

〔7.効果〕
上述してきたように、本願に係る情報処理装置(端末装置10及び情報提供装置100)は、物件ごとに登録される画像のうち閲覧態様が所定の条件を満たす画像の傾向を特定する特定部(集計部133)と、特定された傾向に応じた物件を検索するための検索条件を生成する生成部134と、検索条件に応じた物件をユーザに提示する提供部136とを備える。
[7. effect〕
As described above, the information processing device (terminal device 10 and information providing device 100) according to the present application includes a specific unit ( The present invention includes a totaling unit 133), a generating unit 134 that generates search conditions for searching for properties according to identified trends, and a providing unit 136 that presents properties according to the search conditions to the user.

特定部(集計部133)は、ユーザが見ている物件の画像から注目ポイントを抽出して画像の特徴としてタグ付けし、ユーザが見ている画像の特徴を示すタグを集計する。生成部134は、タグの集計結果に基づいて、タグに該当する検索軸を生成する。提供部136は、検索条件に関連する物件を提示する。 The identification unit (aggregation unit 133) extracts points of interest from the image of the property that the user is looking at, tags them as features of the image, and tallies the tags that indicate the features of the image that the user is looking at. The generation unit 134 generates a search axis corresponding to the tag based on the tag aggregation result. The providing unit 136 presents properties related to the search conditions.

特定部(集計部133)は、ユーザが閲覧した画像の審美スコアを特定する。生成部134は、審美スコアが所定の条件を満たす画像に基づいて、検索条件を生成する。 The identification unit (aggregation unit 133) identifies the aesthetic score of the image viewed by the user. The generation unit 134 generates search conditions based on images whose aesthetic scores satisfy predetermined conditions.

生成部134は、ユーザが閲覧した物件の画像の対象物の傾向に基づいて、ユーザが興味を有する物件の特定の部分を推定し、当該特定の部分が所定の条件を満たす物件を検索するための検索条件を生成する。 The generation unit 134 estimates a specific part of the property that the user is interested in based on the tendency of objects in the image of the property viewed by the user, and searches for properties in which the specific part satisfies predetermined conditions. Generate search conditions for.

生成部134は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の外観に興味を持っていると推定される場合、外観の視覚的な態様に関する検索条件を生成する。 When it is estimated that the user is interested in the exterior of the property based on the object in the image of the property that the user has viewed, the generation unit 134 generates search conditions related to the visual aspect of the exterior.

生成部134は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の水回りに興味を持っていると推定される場合、水回りに関する検索条件を生成する。 When it is estimated that the user is interested in the plumbing of the property based on the object in the image of the property that the user has viewed, the generation unit 134 generates search conditions related to the plumbing.

生成部134は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の収納に興味を持っていると推定される場合、収納に関する検索条件を生成する。 The generation unit 134 generates search conditions related to storage when it is estimated that the user is interested in storing the property based on the object in the image of the property viewed by the user.

上述した各処理のいずれかもしくは組合せにより、本願に係る情報処理装置は、ユーザに有益な情報を提供するための検索条件を創出することができる。本願に係る情報処理装置は、ユーザが閲覧した画像の特徴(タグ等)を特定し、特定した特徴の共通性に基づいて、検索条件を生成し、検索条件に基づく検索結果を提供する。 By using any one or a combination of the above-described processes, the information processing apparatus according to the present application can create search conditions for providing useful information to the user. The information processing device according to the present application identifies features (tags, etc.) of images viewed by a user, generates search conditions based on the commonality of the identified features, and provides search results based on the search conditions.

〔8.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報提供装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、情報提供装置100を例に挙げて説明する。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[8. Hardware configuration]
Further, the terminal device 10 and the information providing device 100 according to the embodiments described above are realized by, for example, a computer 1000 having a configuration as shown in FIG. The information providing apparatus 100 will be described below as an example. FIG. 9 is a diagram showing an example of the hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and a calculation device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are connected to a bus. 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic unit 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and performs various processes. The arithmetic device 1030 is realized by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used by the calculation device 1030 for various calculations. Further, the secondary storage device 1050 is a storage device in which data used by the calculation device 1030 for various calculations and various databases are registered, and includes a ROM (Read Only Memory), an HDD (Hard Disk Drive), and an SSD (Solid Disk Drive). This is realized using flash memory, etc. The secondary storage device 1050 may be a built-in storage or an external storage. Further, the secondary storage device 1050 may be a removable storage medium such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) memory card. Further, the secondary storage device 1050 may be a cloud storage (online storage), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various information such as a display, a projector, and a printer. (Digital Visual Interface) and HDMI (registered trademark) (High Definition Multimedia Interface). Further, the input I/F 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, keypad, button, scanner, etc., and is realized by, for example, a USB or the like.

また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 Further, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, output device 1010 and input device 1020 may be wireless devices.

また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 Moreover, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated as an input/output I/F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 Note that the input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network I/F 1080 receives data from other devices via network N and sends it to computing device 1030, and also sends data generated by computing device 1030 to other devices via network N.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 Arithmetic device 1030 controls output device 1010 and input device 1020 via output I/F 1060 and input I/F 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が情報提供装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the information providing device 100, the arithmetic unit 1030 of the computer 1000 realizes the functions of the control unit 130 by executing a program loaded onto the primary storage device 1040. Further, the arithmetic device 1030 of the computer 1000 may load a program obtained from another device via the network I/F 1080 onto the primary storage device 1040, and execute the loaded program. Furthermore, the arithmetic unit 1030 of the computer 1000 may cooperate with other devices via the network I/F 1080, and may call and use program functions, data, etc. from other programs of other devices.

〔9.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[9. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the information providing apparatus 100 described above may be realized by a plurality of server computers, and depending on the function, it may be realized by calling an external platform etc. using an API (Application Programming Interface), network computing, etc. can be changed flexibly.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
10 端末装置
100 情報提供装置
110 通信部
120 記憶部
121 利用者情報データベース
122 履歴情報データベース
123 物件画像情報データベース
130 制御部
131 取得部
132 算出部
133 集計部
134 生成部
135 決定部
136 提供部
1 Information processing system 10 Terminal device 100 Information providing device 110 Communication unit 120 Storage unit 121 User information database 122 History information database 123 Property image information database 130 Control unit 131 Acquisition unit 132 Calculation unit 133 Aggregation unit 134 Generation unit 135 Determination unit 136 Providing department

Claims (10)

物件ごとに登録される画像のうちユーザが閲覧した対象物の異なる複数の画像の各々の対象物の共通点から、ユーザが閲覧した物件の画像の対象物の傾向を特定する特定部と、
特定された物件の画像の対象物の傾向に基づいて、物件を検索するための検索条件を生成する生成部と、
前記検索条件に応じた物件のうち、前記傾向に応じた対象物の画像の審美性が高い物件をユーザに提示する提供部と、
を備えることを特徴とする情報処理装置。
an identification unit that identifies a tendency of objects in images of the property viewed by the user from common points of objects in a plurality of images of different objects viewed by the user among images registered for each property;
a generation unit that generates search conditions for searching for a property based on the tendency of the object in the image of the identified property ;
a providing unit that presents to the user properties whose images of objects according to the tendency are highly aesthetically pleasing among the properties according to the search conditions;
An information processing device comprising:
前記特定部は、ユーザが閲覧した物件の画像の特徴を示すタグを集計し、
前記生成部は、前記タグの集計結果に基づいて、前記タグに該当する検索条件を生成し、
前記提供部は、前記検索条件に関連する物件を提示する
ことを特徴とする請求項1に記載の情報処理装置。
The identification unit aggregates tags indicating characteristics of images of properties viewed by the user,
The generation unit generates a search condition corresponding to the tag based on the aggregation result of the tag,
The information processing device according to claim 1, wherein the providing unit presents properties related to the search condition.
前記特定部は、ユーザが閲覧した物件の画像の審美スコアを特定し、
前記生成部は、前記審美スコアが所定の条件を満たす画像に基づいて、前記検索条件を生成する
ことを特徴とする請求項1または2に記載の情報処理装置。
The identification unit identifies an aesthetic score of an image of a property viewed by the user;
The information processing device according to claim 1 or 2, wherein the generation unit generates the search condition based on an image whose aesthetic score satisfies a predetermined condition.
前記生成部は、ユーザが閲覧した物件の画像の対象物の傾向に基づいて、ユーザが興味を有する物件の特定の部分を推定し、推定された前記特定の部分が所定の条件を満たす物件を検索するための検索条件を生成する
ことを特徴とする請求項2又は3に記載の情報処理装置。
The generation unit estimates a specific part of the property that the user is interested in based on the tendency of the object in the image of the property viewed by the user, and generates a property in which the estimated specific part satisfies a predetermined condition. The information processing apparatus according to claim 2 or 3, wherein the information processing apparatus generates search conditions for searching.
前記生成部は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の外観に興味を持っていると推定される場合、外観の視覚的な態様に関する検索条件を生成する
ことを特徴とする請求項4に記載の情報処理装置。
The generating unit is characterized in that, when it is estimated that the user is interested in the exterior of the property based on the object in the image of the property viewed by the user, the generation unit generates a search condition regarding the visual aspect of the exterior. The information processing device according to claim 4.
前記生成部は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の水回りに興味を持っていると推定される場合、水回りに関する検索条件を生成する
ことを特徴とする請求項4又は5に記載の情報処理装置。
The generating unit generates a search condition related to the plumbing when it is estimated that the user is interested in the plumbing of the property based on the object in the image of the property viewed by the user. 5. The information processing device according to 4 or 5.
前記生成部は、ユーザが閲覧した物件の画像の対象物から、ユーザが物件の収納に興味を持っていると推定される場合、収納に関する検索条件を生成する
ことを特徴とする請求項4~6のうちいずれか1つに記載の情報処理装置。
The generation unit generates search conditions related to storage when it is estimated that the user is interested in storage of the property based on the object in the image of the property viewed by the user. 6. The information processing device according to any one of 6.
前記提供部は、学習モデルを用いて前記検索条件に該当する物件の画像の審美スコアを出力する
ことを特徴とする請求項4~7のうちいずれか1つに記載の情報処理装置。
The information processing apparatus according to any one of claims 4 to 7, wherein the providing unit outputs an aesthetic score of an image of a property that corresponds to the search condition using a learning model.
情報処理装置が実行する情報処理方法であって、
物件ごとに登録される画像のうちユーザが閲覧した対象物の異なる複数の画像の各々の対象物の共通点から、ユーザが閲覧した物件の画像の対象物の傾向を特定する特定工程と、
特定された物件の画像の対象物の傾向に基づいて、物件を検索するための検索条件を生成する生成工程と、
前記検索条件に応じた物件のうち、前記傾向に応じた対象物の画像の審美性が高い物件をユーザに提示する提供工程と、
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing device, the method comprising:
an identification step of identifying a tendency of the object in the image of the property viewed by the user from common points of each object in a plurality of images of different objects viewed by the user among the images registered for each property;
a generation step of generating search conditions for searching for a property based on the tendency of the object in the image of the identified property ;
a providing step of presenting to the user properties whose images of objects according to the tendency are highly aesthetically pleasing among the properties according to the search conditions;
An information processing method characterized by comprising:
物件ごとに登録される画像のうちユーザが閲覧した対象物の異なる複数の画像の各々の対象物の共通点から、ユーザが閲覧した物件の画像の対象物の傾向を特定する特定手順と、
特定された物件の画像の対象物の傾向に基づいて、物件を検索するための検索条件を生成する生成手順と、
前記検索条件に応じた物件のうち、前記傾向に応じた対象物の画像の審美性が高い物件をユーザに提示する提供手順と、
をコンピュータに実行させるための情報処理プログラム。
an identification procedure for identifying a tendency of an object in an image of a property viewed by a user based on a common feature of each object in a plurality of images of different objects viewed by the user among images registered for each property;
a generation procedure for generating search conditions for searching for a property based on the tendency of the object in the image of the identified property ;
a providing procedure of presenting to the user properties whose images of objects according to the tendency are highly aesthetically pleasing among the properties according to the search conditions;
An information processing program that allows a computer to execute.
JP2021185974A 2021-11-15 2021-11-15 Information processing device, information processing method, and information processing program Active JP7361084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021185974A JP7361084B2 (en) 2021-11-15 2021-11-15 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021185974A JP7361084B2 (en) 2021-11-15 2021-11-15 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2023073128A JP2023073128A (en) 2023-05-25
JP7361084B2 true JP7361084B2 (en) 2023-10-13

Family

ID=86425049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021185974A Active JP7361084B2 (en) 2021-11-15 2021-11-15 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7361084B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256539A (en) 2002-03-06 2003-09-12 Ntt Comware Corp Dwelling simulated experience system, dwelling simulated experience method, dwelling simulated experience program and storage medium
US20160098618A1 (en) 2014-10-03 2016-04-07 EyeEm Mobile GmbH Systems, methods, and computer program products for searching and sorting images by aesthetic quality
WO2017090678A1 (en) 2015-11-26 2017-06-01 株式会社ネクスト Information processing system and information processing method
JP2020039117A (en) 2018-07-31 2020-03-12 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Method and system for assisting user in producing and selecting image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256539A (en) 2002-03-06 2003-09-12 Ntt Comware Corp Dwelling simulated experience system, dwelling simulated experience method, dwelling simulated experience program and storage medium
US20160098618A1 (en) 2014-10-03 2016-04-07 EyeEm Mobile GmbH Systems, methods, and computer program products for searching and sorting images by aesthetic quality
WO2017090678A1 (en) 2015-11-26 2017-06-01 株式会社ネクスト Information processing system and information processing method
JP2020039117A (en) 2018-07-31 2020-03-12 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Method and system for assisting user in producing and selecting image

Also Published As

Publication number Publication date
JP2023073128A (en) 2023-05-25

Similar Documents

Publication Publication Date Title
Abdelmoaty et al. Smart Technology Applications in Tourism and Hospitality Industry of The New Administrative Capital, Egypt.
US20090187337A1 (en) System and method for navigation of a building, campus or retail structure with a mobile device
JP6976384B1 (en) Information processing equipment, information processing methods and information processing programs
Claridades et al. Developing a data model of indoor points of interest to support location‐based services
JP7361084B2 (en) Information processing device, information processing method, and information processing program
JP7280421B1 (en) Information processing device, information processing method and information processing program
JP7354211B2 (en) Information processing device, information processing method, and information processing program
JP7317901B2 (en) Information processing device, information processing method and information processing program
JP7304925B2 (en) Information processing device, information processing method and information processing program
JP7353317B2 (en) Information processing device, information processing method, and information processing program
JP7155196B2 (en) Information processing device, information processing method and information processing program
JP7354166B2 (en) Information processing device, information processing method, and information processing program
JP7354165B2 (en) Information processing device, information processing method, and information processing program
JP7431204B2 (en) Information processing device, information processing method, and information processing program
JP2023000787A (en) Information processing device, information processing method, and information processing program
JP7443210B2 (en) Information processing device, information processing method, and information processing program
JP7459021B2 (en) Information processing device, information processing method, and information processing program
JP7337123B2 (en) Information processing device, information processing method and information processing program
JP7133597B2 (en) Information processing device, information processing method and information processing program
JP7012781B2 (en) Information processing equipment, information processing methods and information processing programs
JP7388744B2 (en) Information processing device, information processing method, and information processing program
JP2023028857A (en) Information processing system
KR20170044585A (en) Method and apparatus for searching the real estate for sale
JP2024070059A (en) Information processing device, method for processing information, and information processing program
Haghbayan et al. Spatial description of indoor space in Volunteered Geographic Information environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R150 Certificate of patent or registration of utility model

Ref document number: 7361084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350