WO2021131623A1 - 情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム - Google Patents

情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム Download PDF

Info

Publication number
WO2021131623A1
WO2021131623A1 PCT/JP2020/045342 JP2020045342W WO2021131623A1 WO 2021131623 A1 WO2021131623 A1 WO 2021131623A1 JP 2020045342 W JP2020045342 W JP 2020045342W WO 2021131623 A1 WO2021131623 A1 WO 2021131623A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
furniture
user
image information
image
Prior art date
Application number
PCT/JP2020/045342
Other languages
English (en)
French (fr)
Inventor
智和 浮城
啓吾 宮末
伸雄 森竹
Original Assignee
株式会社ベガコーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ベガコーポレーション filed Critical 株式会社ベガコーポレーション
Priority to EP20907749.4A priority Critical patent/EP4083928A4/en
Publication of WO2021131623A1 publication Critical patent/WO2021131623A1/ja
Priority to US17/579,798 priority patent/US20220148269A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Definitions

  • This disclosure relates to an information providing device, an information providing system, an information providing method, and an information providing program that presents a state in which furniture of a purchase candidate is arranged in image information or video information obtained by photographing a room.
  • Furniture is an example of such a large product. Furniture is also sold by mail order by many vendors. In particular, in the case of a company that sells furniture via the Internet, image information such as photographs of furniture is posted on the Internet to compensate for the weakness of mail-order sales, which is the inability to purchase by looking at the actual product.
  • Patent Document 1 discloses an interior image creating device that creates an image of the internal space of a building from a three-dimensional model of the building.
  • the interior image creating device described in Patent Document 1 is configured to create an internal image of a space from a predetermined viewpoint based on the planar shape of the space, the opening of the space, and the fittings, equipment, or furniture arranged in the space. ing.
  • Patent Document 1 does not display the image information of the furniture actually sold by mail order on the preview image, and therefore is going to live in the current residence or in the future. I could't get the image of the combination with the house.
  • the information providing device the information providing system, and the information capable of presenting the image information or the image information in the state where the furniture of the purchase candidate is arranged with respect to the image information or the image information obtained by photographing the room.
  • the provision method and the information provision program will be described.
  • the information providing device in one aspect of the present disclosure includes a user information acquisition unit that acquires user information, an image information reception unit that accepts input of image information or video information of a room, and analysis based on the image information or video information. Selects furniture information suitable for the user from the furniture information stored in advance based on the user information and the layout information with the layout information generation unit that generates the layout information of the room, and relates to the selected furniture information. It includes a furniture arranging unit for arranging furniture overlaid on image information or video information, and an image information presenting unit for presenting image information or video information on which furniture is arranged to a user.
  • the information providing system in one aspect of the present disclosure is an information providing system including an information providing device and a user terminal, and the information providing device includes a user information acquisition unit for acquiring user information and an image of a room.
  • An image information reception unit that accepts input of information or video information, a floor information generation unit that analyzes based on image information or video information and generates room layout information, and stores in advance based on user information and floor information.
  • a furniture arrangement unit that selects furniture information suitable for the user from the provided furniture information and arranges the furniture related to the selected furniture information overlaid on the image information or the video information, and the image information or the image on which the furniture is arranged.
  • the user terminal includes an image information presentation unit that transmits information to the user terminal, and the user terminal has an image information transmission unit that photographs the room from the user and transmits the photographed image information or video information to the information providing device, and furniture. It is provided with an image information display unit that receives the image information or the video information in which the information is arranged from the information providing device and displays it to the user.
  • the information providing method in one aspect of the present disclosure includes a user information acquisition step of acquiring user information performed by the user information acquisition unit and an image of receiving image information or video information of a room photographed by the image information reception unit.
  • the floor information generation step of performing analysis based on image information or video information performed by the floor information generation unit, and generating the room floor information, and the user information and floor information performed by the furniture arrangement department.
  • the furniture placement step of selecting the furniture information suitable for the user from the furniture information stored in advance and arranging the furniture related to the selected furniture information on top of the image information or the video information
  • the image information presentation unit It is provided with an image information presentation step of presenting image information or video information on which furniture is arranged to the user.
  • the information providing program in one aspect of the present disclosure is based on a user information acquisition step for acquiring user information, an image information reception step for accepting input of image information or video information of a room, and image information or video information.
  • the furniture information suitable for the user is selected from the furniture information stored in advance based on the user information and the floor information, and the selected furniture information.
  • the computer is made to execute a furniture arrangement step of arranging the furniture according to the above on the image information or the video information, and an image information presentation step of presenting the image information or the image information on which the furniture is arranged to the user.
  • the user's room receives image information or video information taken, analyzes the image information or video information to generate flooring information, selects furniture information suitable for the user, and the furniture. Is placed in the image information or the video information and presented to the user. Therefore, it is possible to present the state in which the furniture related to the furniture information is arranged in the floor plan information of the actual residence received from the user. As a result, the user can visually grasp the image of the furniture in the three-dimensional space in which the furniture of the purchase candidate is arranged in the actual residence.
  • FIG. 1 is a block configuration diagram showing an information providing system 1 according to an embodiment of the present disclosure.
  • This information providing system 1 is not limited, but as an example, is a system that provides furniture information as a product, which is operated by a furniture sales company, and is an image of a user's room that is a customer of this company. It is a system that presents the state in which furniture to be sold is arranged in information or video information.
  • the image information or the video information obtained by photographing the user's room is a concept including the image information by the still image or the video information by the moving image, and these are collectively referred to as "image information" below.
  • the presentation of the furniture-arranged image information by the information providing system 1 is provided by using, for example, augmented reality (AR) or mixed reality (MR) technology, and the user uses the user terminal to use his / her own room. Grasp the state in which furniture is placed in the image information of.
  • AR augmented reality
  • MR mixed reality
  • the furniture arranged in the image information by the information providing system 1 is selected based on the user's attribute information and preference information. Therefore, the information providing system 1 accepts the input of the user's attribute information and preference information.
  • the information providing system 1 has an information providing device 100, a user terminal 200, and a network NW.
  • the information providing device 100 and the user terminal 200 are connected to each other via a network NW.
  • the network NW is a communication network for communication, and is not limited to the Internet, an intranet, a LAN (Local Area Network), a WAN (Wide Area Network), a wireless LAN (Wireless LAN: WAN), and a wireless WAN (Wireless LAN). It is composed of a communication network including Wireless WAN: WAN), Virtual Private Network (VPN), and the like.
  • the information providing device 100 receives input of user attribute information, room image information, and user preference information from the user, analyzes the image information to generate layout information, and sends the user attribute information and preference information to the user. It is a device that selects suitable furniture information, arranges the furniture in the image information, and presents it to the user.
  • the information providing device 100 is not limited, but is composed of, for example, a computer (desktop, laptop, tablet, etc.) that provides various Web services, a device including a server device, and the like.
  • the server device is not limited to a server device that operates independently, and may be a distributed server system or a cloud server that operates in cooperation by communicating via a network NW.
  • the user terminal 200 is used by the user to input the user's attribute information, the image information of the room, and the user's preference information into the information providing device 100, and to receive the presentation of the image information in which the furniture is arranged.
  • the terminal device is not limited to the above, and is composed of a smartphone, a mobile terminal, a computer (desktop, laptop, tablet, etc.) and the like.
  • an application for receiving the service of the information providing system 1 is installed, or a URL or the like for accessing the information providing device 100 is set, and the user terminal 200 is activated by tapping or double-clicking them. As a result, the service is started.
  • the user terminal 200 has a camera function for taking a picture of the user's room.
  • the information providing device 100 includes a communication unit 110, a storage unit 120, and a control unit 130 as its functional configuration.
  • the communication unit 110 is a communication interface for communicating with the user terminal 200 by wire or wirelessly via the network NW, and any communication protocol may be used as long as mutual communication can be executed.
  • the communication unit 110 is not limited, and for example, communication is performed by a communication protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol).
  • the storage unit 120 stores programs, input data, and the like for executing various control processes and each function in the control unit 130, and is not limited, but as an example, a RAM (RandomAccessMemory) and a ROM (ReadOnly). It is composed of a memory including a memory) and a storage including an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory and the like. Further, the storage unit 120 stores the user DB 121, the floor plan DB 122, and the furniture DB 123. Further, the storage unit 120 temporarily stores the data when communicating with the user terminal 200 and the data generated by each process described later.
  • the user DB 121 stores identification data that identifies a user who intends to purchase furniture from a company that operates the information providing system 1, and attribute information such as the age, gender, and place of residence of the user.
  • the user identification data is information for logging in to the information providing system 1, may be issued by the information providing system 1, may be determined by the input of the user, or may be a user's e-mail address or the like. Good.
  • the user DB 121 stores preference information of a user who intends to purchase furniture.
  • the preference information is preference information about the living room and furniture of the user's house. Specifically, it is information indicating the design, taste, and color of the living room and furniture of the house, the atmosphere of the room by these, or the functionality of the furniture used, for example, “Asian”, “European”, Information such as "Japanese style”, “vintage”, “dark”, “ivory”, “natural”, and “low type”.
  • This preference information is received by the preference information acquisition unit 133, which will be described later, and one or a plurality of tag information composed of words as in the above example is stored.
  • the floor plan DB 122 stores the image information of the user's room and the floor plan information of the user's room generated by analyzing the image information.
  • the floor plan information includes information on the presence or absence of structures in the user's room, such as the presence or absence of walls, floors, ceilings, doors and windows, and storage space in the user's room, and the inside of the room and between each structure. Information on the size of the room, such as dimensions.
  • the furniture DB 123 stores furniture information sold by a company that operates the information providing system 1.
  • furniture information includes furniture types such as “sofa” and “table”, furniture design and taste such as “vintage”, “dark”, “ivory”, and “natural”, color information, and furniture. It is information which shows the size and price of.
  • the furniture DB 123 stores image information of furniture for arranging furniture in a three-dimensional space by the furniture arranging unit 135 described later. Since the three-dimensional space is three-dimensional (3D) modeled information, the image information of the furniture to be arranged in the three-dimensional space is also the three-dimensional (3D) modeled information.
  • the control unit 130 controls the entire operation of the information providing device 100 by executing a program stored in the storage unit 120, and is not limited to, but as an example, a CPU (Central Processing Unit), an MPU ( Equipment including MicroProcessingUnit), GPU (GraphicsProcessingUnit), microprocessor (Microprocessor), processor core (Processorcore), multiprocessor (Multiprocessor), ASIC (Application-Specific IntegratedCircuit), FPGA (Field ProgrammableGateArray) Etc.
  • a CPU Central Processing Unit
  • MPU Equipment including MicroProcessingUnit
  • GPU GraphicsProcessingUnit
  • microprocessor Microprocessor
  • processor core Processorcore
  • Multiprocessor Multiprocessor
  • ASIC Application-Specific IntegratedCircuit
  • FPGA Field ProgrammableGateArray
  • the attribute information acquisition unit (user information acquisition unit) 131, the image information reception unit 132, the preference information acquisition unit (user information acquisition unit) 133, the floor plan information generation unit 134, and the furniture arrangement unit It includes 135 and an image information presentation unit 136.
  • the attribute information acquisition unit 131, the image information reception unit 132, the preference information acquisition unit 133, the layout information generation unit 134, the furniture arrangement unit 135, and the image information presentation unit 136 are activated by a program stored in the storage unit 120. Is executed by the information providing device 100.
  • the attribute information acquisition unit 131 receives the attribute information of the user who accesses the information providing device 100 from the user terminal 200 via the communication unit 110.
  • the user attribute information is not limited, but includes, as an example, information on the user's age, gender, and place of residence, information on furniture viewed by the information providing device 100, and information on furniture purchased from a company that operates the information providing system 1. included.
  • This attribute information is accepted when the user registers as a member in the information providing system 1 or when inputting information such as the user's address, name, contact information, payment method, etc., which is input when purchasing furniture from the vendor. Be done.
  • the received user attribute information is stored in the user DB 121.
  • the attribute information acquisition unit 131 may automatically acquire the user's attribute information from another Web service or the like.
  • the image information receiving unit 132 receives the image information of the user's room from the user terminal 200 via the communication unit 110.
  • the room image information is image information based on a still image of the user's room or video information based on a moving image taken by the user terminal 200 by the user's operation.
  • the room referred to here is not limited to the room in which the user actually resides, and may be the room in which the user is about to move in (for example, image information or video information taken during a preview of a real estate property). Good.
  • the user operates the user terminal 200 to take a picture of one direction of the wall surface of the room.
  • the direction of the user terminal 200 is rotated by 90 ° in the horizontal direction and moved, and the user terminal 200 is rotated substantially in the room while shooting, and the four directions of the wall surface of the room are changed.
  • the direction of the user terminal 200 is moved downward to photograph the floor surface, and then the direction of the user terminal 200 is moved upward to photograph the ceiling surface. ..
  • image information in all directions of the room for example, an omnidirectional image or an omnidirectional image is acquired.
  • the shooting of the wall surface of the room by the user terminal 200 may be a moving image shooting or a continuous shooting of still images.
  • Image information and video information captured by the user terminal 200 are transmitted to the information providing device 100, and acquired by the image information receiving unit 132 via the communication unit 110.
  • the acquired image information of the user's room is stored in the floor plan DB 122.
  • the preference information acquisition unit 133 receives preference information indicating a user's room preference from the user terminal 200 via the communication unit 110.
  • preference information acquisition unit 133 as the preference information of the user, in order to acquire the design, taste, and color information of the living room and furniture of the house as described above, and the atmosphere of the room by these, a question about these information is asked. Is transmitted to the user terminal 200, and the answer to the question is accepted and accepted as preference information.
  • the received preference information is stored in the user DB 121.
  • the preference information acquisition unit 133 may automatically acquire the user's preference information from another Web service or the like.
  • the floor plan information generation unit 134 analyzes based on the image information of the user's room received by the image information reception unit 132, and generates the floor plan information of the user's room. Specifically, the floor plan information generation unit 134 analyzes the image information and the video information taken by the user terminal 200 by processing such as object identification, and discriminates the wall, floor, and ceiling in the user's room. Further, the floor plan information generation unit 134 may extract information on the already arranged furniture, doors, windows, and structures such as the presence / absence of storage space, and generates the floor plan information of the user's room from such information. You may.
  • the floor plan information generation unit 134 analyzes the captured image information and video information, and uses the user's room (for example, a studio for living alone, a living room for a plurality of rooms, etc.) and a taste (for example). , Vintage, dark, etc.) information may be extracted. Further, the floor plan information generation unit 134 analyzes the image information and the video information taken by the user terminal 200, and calculates the dimensions inside the room and between the structures. The generated floor plan information is stored in the floor plan DB 122.
  • the user's room for example, a studio for living alone, a living room for a plurality of rooms, etc.
  • a taste for example. , Vintage, dark, etc.
  • the generated floor plan information is stored in the floor plan DB 122.
  • the furniture arrangement unit 135 is stored in the furniture DB 123 based on the attribute information received by the attribute information acquisition unit 131, the preference information received by the preference information acquisition unit 133, and the room layout information generated by the layout information generation unit 134. Select furniture information related to furniture suitable for the user from the furniture information provided.
  • the furniture selected by the furniture arrangement unit 135 may be one or a plurality of furniture, and these may be presented and determined by the user's selection. At this time, a plurality of furniture of the same type may be presented, or a set composed of a plurality of furniture may be presented.
  • the furniture arranging unit 135 superimposes the image information of the stereoscopic (3D) modeled furniture on the image information of the user's room taken by the image information receiving unit 132, and arranges it in an augmented reality (3D) modeled furniture. It constitutes an AR) space or a mixed reality (MR) space.
  • the furniture arrangement unit 135 may arrange furniture image information in a three-dimensional space according to a predetermined rule. This rule is defined as, for example, "Do not place furniture in front of the door.”, "Do not place furniture so as to shield the window (as long as the furniture is at a height that does not block the window)." It is a thing.
  • the furniture arranging unit 135 is based on furniture information stored in the furniture DB 123, based on furniture dimensions, article information indicating the type of furniture, shape information indicating the appearance, color information, or price information. , Select furniture information to suit the atmosphere and dimensions of the room based on the room layout information.
  • the furniture arrangement unit 135 may be arranged so as not to overlap the furniture already arranged in the image information of the room, or may be arranged so as to replace the furniture already arranged in the image information of the room. You may.
  • the furniture arrangement unit 135 is not limited, but as an example, the attribute information is based on the purchase information (not shown) that the user or another user having the attribute purchased in the past from the company that operates the information providing system 1. Based on the attribute information received by the acquisition unit 131, it is determined that the furniture is close to the user's preference, and the furniture is selected as furniture information related to the furniture suitable for the user. For example, based on attribute information, users are classified into segments such as women in their 20s living in XX prefecture and men in their 40s living in ⁇ prefecture, and based on the characteristics of purchasing behavior seen in each segment, users You may select from the furniture DB 123 based on the furniture information of the furniture type, shape, and price range that are close to your preference.
  • the furniture arrangement unit 135 determines the atmosphere information indicating the atmosphere of the room from the floor plan information received by the image information reception unit 132 as an example, and the furniture belonging to the atmosphere information is suitable for the user. Select as furniture information related to furniture. For example, based on the analysis results of the image information and video information of the floor plan information, the atmosphere of the room is classified into atmosphere information such as "Asian” and "European style", and the furniture information of the corresponding atmosphere is used as furniture information close to the user's preference. You may select from DB123.
  • the furniture arrangement unit 135 determines the preference information of the user from the preference information received by the preference information acquisition unit 133 as an example, and the furniture belonging to the preference information is related to the furniture suitable for the user. Select as furniture information. For example, from the answers to the questions by the preference information acquisition unit 133, the user's preference information is classified into preference information such as "vintage”, “dark”, and "ivory", and the corresponding furniture information is set as furniture information close to the user's preference. You may select from furniture DB 123.
  • the image information presentation unit 136 arranges furniture in the furniture arrangement unit 135, and transmits image information constituting an augmented reality (AR) space or a mixed reality (MR) space to the user terminal 200 via the communication unit 110. , Present to the user.
  • the presented image information is represented by, for example, an omnidirectional image or an omnidirectional image.
  • the image information presentation unit 136 together with the image information of the augmented reality (AR) space or the mixed reality (MR) space, includes furniture information of the arranged furniture, for example, furniture article information, shape information, color information, or price information. Is transmitted to the user terminal 200 via the communication unit 110 and presented to the user. This is because the user needs not only the appearance of the furniture but also information such as the name and price when deciding to purchase furniture.
  • furniture information of the arranged furniture for example, furniture article information, shape information, color information, or price information.
  • FIG. 2 is a functional block configuration diagram showing the user terminal 200 of FIG.
  • the user terminal 200 includes a communication unit 210, a display unit 220, an operation unit 230, a storage unit 240, and a control unit 250.
  • the communication unit 210 is a communication interface for communicating with the information providing device 100 by wire or wirelessly via the network NW, and any communication protocol may be used as long as mutual communication can be executed.
  • the communication unit 210 is not limited, and for example, communication is performed by a communication protocol such as TCP / IP.
  • the display unit 220 is a user interface used for displaying the operation content input by the user and the transmission content from the information providing device 100, and is composed of a liquid crystal display or the like.
  • the display unit 220 displays attribute information and preference information input by the user, and image information in augmented reality (AR) space or mixed reality (MR) space transmitted and presented by the information providing device 100.
  • AR augmented reality
  • MR mixed reality
  • the operation unit 230 is a user interface used for the user to input operation instructions, and is composed of a keyboard, a mouse, a touch panel, and the like. In the operation unit 230, user attribute information and preference information are input.
  • the storage unit 240 stores programs for executing various control processes and each function in the control unit 250, input data, and the like.
  • the storage unit 240 is not limited, and as an example, a memory including a RAM, a ROM, and the like, an HDD, and the like. It is composed of storage including SSD, flash memory and the like.
  • the storage unit 240 temporarily stores the data that has communicated with the information providing device 100.
  • the control unit 250 controls the entire operation of the user terminal 200 by executing a program stored in the storage unit 240, and is not limited to, but as an example, a CPU, an MPU, a GPU, a microprocessor, and a processor. It is composed of a core, a multiprocessor, an ASIC, a device including an FPGA, and the like.
  • the control unit 250 includes an attribute information transmission unit 251, an image information transmission unit 252, a preference information transmission unit 253, and an image information display unit 254.
  • the attribute information transmission unit 251, the image information transmission unit 252, the preference information transmission unit 253, and the image information display unit 254 are started by the program stored in the storage unit 240 and executed by the user terminal 200.
  • the attribute information transmission unit 251 receives the input of the user's attribute information from the operation unit 230 and transmits it to the information providing device 100 via the communication unit 210.
  • the transmitted attribute information is accepted by the attribute information acquisition unit 131 of the information providing device 100.
  • the image information transmission unit 252 photographs the user's room with the camera function by the user's operation, and transmits the photographed image information to the information providing device 100 via the communication unit 210.
  • the transmitted floor plan information is received by the image information receiving unit 132 of the information providing device 100.
  • the preference information transmission unit 253 receives the input of the user's preference information from the operation unit 230 and transmits it to the information providing device 100 via the communication unit 210.
  • the transmitted attribute information is accepted by the preference information acquisition unit 133 of the information providing device 100.
  • the image information display unit 254 transmits the image information transmitted from the image information presentation unit 136 of the information providing device 100 to form an augmented reality (AR) space or a mixed reality (MR) space in which furniture is arranged. Accept via 210. The received image information is displayed on the display unit 220.
  • AR augmented reality
  • MR mixed reality
  • FIG. 3 is a flowchart showing the operation of the information providing system 1 of FIG.
  • the information providing device 100 performs user authentication in order to receive the service provided by the information providing system 1. Therefore, for example, the user is registered by inputting the user's age, gender, and residence information on the user terminal 200 by the user's operation.
  • the attribute information transmission unit 251 of the user terminal 200 inputs the attribute information of the user
  • the attribute information acquisition unit 131 of the information providing device 100 receives the attribute information of the user via the communication unit 110, and the user DB 121 Stored in.
  • an input request for account information and a password is made, and user authentication is performed by collating with the registered information based on the input information. If they match, the information providing device 100 is logged in.
  • step S102 in the image information transmission unit 252 of the user terminal 200, the user's room is photographed by the camera function by the user's operation, and the photographed image information is transmitted to the information providing device 100.
  • the image information receiving unit 132 of the information providing device 100 receives the image information of the user's room via the communication unit 110.
  • FIG. 4 is a schematic diagram showing an example of image information of a room displayed on the display unit 220 of FIG.
  • the image information transmission unit 252 is activated by the operation of the user terminal 200
  • the camera function of the user terminal 200 is activated to enter the shooting state, and the user's room is photographed by the image taken by the CCD camera or the like provided in the user terminal 200. As shown in FIG. 4, it is displayed on the display unit 220.
  • image information obtained by photographing the user's room is displayed on the display unit 220.
  • the user's room is, for example, a wall surface W1, a wall surface W2 vertically in contact with the wall surface W1, a floor surface F1 horizontally in contact with the lower part of the wall surface W1 and the wall surface W2, and a horizontal direction above the wall surface W1 and the wall surface W2. It is composed of a ceiling surface C1 in contact with the ceiling surface, and an image obtained by photographing a part of this room is displayed on the display unit 220.
  • the walls W1 and W2 do not necessarily have to be walls surrounding the four corners of the room, and may be partially open or may not be a square room. Further, as shown in FIG. 4, a structure such as a window may exist.
  • the room is photographed, for example, by operating the user terminal 200 in response to an instruction from the image information reception unit 132 to photograph the wall surface W1 in one direction of the wall surface of the room, for example, in the direction of arrow A shown in FIG.
  • the direction of the user terminal 200 is rotated by 90 ° in the horizontal direction and moved to the right, and the wall surface W2 is photographed in the direction of arrow B shown in FIG. 4, for example.
  • the person makes a round in the room and takes pictures of the four directions of the wall surface of the room.
  • the direction of the user terminal 200 is moved in the direction of the arrow C shown in FIG. 4, and the floor surface F1 of the room is photographed. Further, according to the instruction from the image information receiving unit 132, the direction of the user terminal 200 is moved in the direction of the arrow D shown in FIG. 4, and the ceiling surface C1 of the room is photographed. In this way, image information in all directions of the user's room is acquired as an omnidirectional image or an omnidirectional image. This floor plan information is transmitted to the information providing device 100.
  • FIG. 5 is a schematic diagram showing an example of the image information R received by the image information receiving unit 132 of FIG.
  • the image information and the video information taken by the user terminal 200 in step S102 are all, for example, like the image information R configured as the wall surface W1, W2, the floor surface F1, and the ceiling surface C1 shown in FIG. Generated as an orientation image.
  • This image information R continuously represents images in four directions of the user's room, and the image information of the user's room can be viewed in any direction. That is, although it cannot be expressed in FIG. 5, the right end and the left end are in continuous contact with each other, and the same applies to the vertical direction.
  • the preference information acquisition unit 133 of the information providing device 100 transmits a question about the user's preference information and displays it on the display unit 220 of the user terminal 200.
  • the preference information transmission unit 253 the user's preference information is input by the user's operation and transmitted to the information providing device 100.
  • the preference information acquisition unit 133 of the information providing device 100 receives the user's preference information via the communication unit 110.
  • FIG. 5 is a schematic diagram showing an input example of preference information displayed on the display unit 220 of FIG.
  • the question content and answer options are displayed on the display unit 220 of the user terminal 200 as shown in FIG.
  • the question sentence T1 for selecting the taste of the living room or furniture of the house which is one of the user's preference information
  • the selection buttons B1, B2, and B3 are displayed on the display unit 220.
  • the selection buttons B1, B2, and B3 are buttons for answering “ivory”, “white”, and “natural” for the taste of the living room and furniture of the house, respectively.
  • the user selects any one of the selection buttons B1, B2, and B3 (tap on the display unit 220) in response to this question the answer is received by the preference information transmission unit 253 and transmitted to the information providing device 100. Will be done.
  • the floor plan information generation unit 134 of the information providing device 100 performs analysis based on the image information of the user's room received in step S102, and generates the floor plan information of the user's room. From the image information of the user's room, the walls, floors, and ceilings in the user's room are determined, and the dimensions inside the room and between each structure are calculated. At this time, information on the structure such as doors, windows, and the presence / absence of storage space may be extracted.
  • the furniture arrangement unit 135 stores the furniture in the furniture DB 123 based on the attribute information received in step S101, the preference information received in step S103, and the floor plan information generated in step S104. From the information, furniture information related to furniture suitable for the user is selected.
  • FIG. 7 is a schematic view showing a storage example of the furniture DB 123 of FIG.
  • the furniture DB 123 includes product names, product images, tastes, dimensional data, and price information corresponding to the column names of the furniture DB 123 shown in FIG. 7, in association with the product ID shown in FIG. 7.
  • the product ID is identification information that identifies furniture information.
  • the product name is an article name indicating the type of furniture, and information such as “sofa”, “table”, and “storage shelf” is stored.
  • the product image is image information of furniture modeled in three dimensions (3D) for arranging furniture in a three-dimensional space.
  • the taste is information indicating the taste of furniture, and information such as "ivory", “white”, and “natural” is stored.
  • the actual dimensions of the furniture are stored as, for example, width, depth, and height information.
  • the price is the price information of the furniture.
  • furniture information related to furniture suitable for the user is selected from the information.
  • the furniture arranging unit 135 receives the image information of the stereoscopic (3D) modeled furniture selected in step S105 with respect to the image information of the user's room received in step S102. They are stacked to form an augmented reality (AR) space or a mixed reality (MR) space.
  • AR augmented reality
  • MR mixed reality
  • FIG. 8 is a schematic diagram showing a display example of image information displayed on the display unit 220 of FIG.
  • step S106 as shown in the product image of FIG. 7 selected in step S105 with respect to the augmented reality (AR) space or the mixed reality (MR) space in which the user's room is photographed as shown in FIG.
  • Image information of stereoscopic (3D) modeled furniture is arranged.
  • a chair G1 and a table G2 are arranged as an example of furniture.
  • the chair G1 and the table G2 may be superimposed and displayed at the position where the other furniture is arranged in the image information, and may be superimposed and displayed in the state where the other furniture is not arranged in the image information. Good.
  • This image information is transmitted to the user terminal 200 and displayed on the display unit 220 in step S107 described later.
  • step S107 in the image information presentation unit 136, furniture is arranged in step S106, and the image information constituting the augmented reality (AR) space or the mixed reality (MR) space is transmitted to the user terminal 200 via the communication unit 110. Will be sent to.
  • the image information display unit 254 of the user terminal 200 the received image information is displayed on the display unit 220 as shown in FIG. At this time, since the image information presentation unit 136 also transmits the furniture information of the arranged furniture, the image information display unit 254 also displays the received furniture information.
  • FIG. 9 is a schematic diagram showing an example of presenting furniture information displayed on the display unit 220 of FIG.
  • the furniture information received in step S107 with respect to the display of the augmented reality (AR) space or the mixed reality (MR) space imitating the user's room shown in FIG. 8 is shown in FIG. It is displayed as furniture information T2.
  • the furniture information T2 displays, for example, a product name (article name of furniture), a price, and link information to a Web page for referring to the furniture. The user can determine whether or not to purchase by referring to this furniture information as well.
  • the image information receiving unit receives the image information of the user's room, and the flooring information generating unit generates the flooring information.
  • the furniture arrangement unit selects furniture information suitable for the user, arranges the furniture in the image information, configures the space as an augmented reality (AR) space or a composite reality (MR) space, and presents the furniture to the user. Therefore, it is possible to present the state in which the furniture related to the furniture information is arranged in the floor plan information of the actual residence received from the user. As a result, the user can visually grasp the image of the furniture in the three-dimensional space in which the furniture of the purchase candidate is arranged in the actual residence or room of the user.
  • AR augmented reality
  • MR composite reality
  • the attribute information reception unit receives the user's attribute information
  • the preference information reception unit receives the preference information indicating the user's room preference
  • the furniture arrangement unit receives the user's attribute information and preference information based on the user's attribute information and preference information. Suitable furniture information is selected. This makes it possible to present furniture that is close to the user's taste.
  • FIG. 10 is a functional block configuration diagram showing the information providing system 1A according to the second embodiment of the present disclosure.
  • This information providing system 1A is a system that provides furniture information, which is a product, operated by a company that sells furniture, and the furniture to be sold is used as image information of a user's room, which is a customer of this company. It is the same as the information providing system 1 according to the first embodiment in that it is a system that presents the state in which the above is arranged, but it is related to the first embodiment in that a purchase receiving unit 137 is provided as a function of the control unit 130. It is different from the information providing system 1. Other configurations and processing flows are the same as those in the first embodiment.
  • the furniture presented in the first embodiment is provided with means for actually purchasing the furniture.
  • the purchase reception unit 137 receives an input from the user terminal 200 to the effect that the user actually purchases the furniture that is arranged in the image information by the furniture arrangement unit 135 and presented by the image information presentation unit 136.
  • the purchase reception unit 137 is activated and the display unit 220 displays a screen (not shown) for performing the purchase procedure.
  • the user actually sells the furniture by inputting a payment method or the like by operating the user terminal 200 and expressing an intention to make a payment.
  • the purchase reception unit performs a procedure for purchasing furniture by the user.
  • the furniture purchase procedure can be easily performed, and the furniture seller can prevent the furniture seller from losing the opportunity to acquire customers due to the troublesome purchase procedure.
  • FIG. 11 is a functional block configuration diagram showing the information providing system 1B according to the third embodiment of the present disclosure.
  • This information providing system 1B is a system that provides furniture information, which is a product, operated by a company that sells furniture, and the furniture to be sold is used as image information of a user's room, which is a customer of this company. It is the same as the information providing system 1 according to the first embodiment in that it is a system that presents the state in which the above is arranged, but the first embodiment is provided with a change deletion receiving unit 138 as a function of the control unit 130. It is different from the information providing system 1. Other configurations and processing flows are the same as those in the first embodiment.
  • the present embodiment has a function for moving, changing, or deleting the position of the furniture presented in the first embodiment.
  • the change deletion reception unit 138 is arranged in the image information by the furniture arrangement unit 135 from the user terminal 200, and the furniture presented by the image information presentation unit 136 is moved to another position in this three-dimensional space, and the furniture is changed or deleted. Accepts input to the effect.
  • a predetermined operation for example, selecting the furniture and swiping to another position
  • the chair G1 or the table G2 is displayed at the position after the movement.
  • a predetermined operation on the display unit 220 for example, selecting the furniture and swiping off the screen
  • another furniture is selected again from the furniture DB 123, or is deleted from the three-dimensional space displayed on the display unit 220.
  • the change / deletion reception unit changes or deletes the presented furniture.
  • the furniture selected by the furniture arrangement unit does not suit the taste, the furniture can be changed or deleted, so that the furniture closer to the user's taste can be presented.
  • FIG. 12 is a functional block configuration diagram showing an example of the configuration of the computer (electronic computer) 700.
  • the computer 700 includes a CPU 701, a main storage device 702, an auxiliary storage device 703, and an interface 704.
  • the attribute information acquisition unit 131, the image information reception unit 132, the preference information acquisition unit 133, the floor plan information generation unit 134, the furniture arrangement unit 135, and the image information presentation unit 136 according to the first to third embodiments.
  • the details of the control program (information providing program) for realizing each function constituting the purchase reception unit 137 and the change / deletion reception unit 138 will be described.
  • These functional blocks are implemented in the computer 700.
  • the operation of each of these components is stored in the auxiliary storage device 703 in the form of a program.
  • the CPU 701 reads the program from the auxiliary storage device 703, expands it to the main storage device 702, and executes the above-described processing according to the program. Further, the CPU 701 secures a storage area corresponding to the above-mentioned storage unit in the main storage device 702 according to the program.
  • the program is based on a user information acquisition step of acquiring user information in a computer 700, an image information reception step of accepting input of image information of a room photographed by the user's operation, and image information.
  • the furniture information suitable for the user is selected from the furniture information stored in advance based on the user information and the furniture information, and the furniture information is selected as the furniture information.
  • the auxiliary storage device 703 is an example of a tangible medium that is not temporary.
  • Other examples of non-temporary tangible media include magnetic disks, magneto-optical disks, CD-ROMs, DVD-ROMs, semiconductor memories, etc. connected via interface 704.
  • the distributed computer 700 may expand the program to the main storage device 702 and execute the above-described processing.
  • the program may be for realizing a part of the above-mentioned functions. Further, the program may be a so-called difference file (difference program) that realizes the above-mentioned function in combination with another program already stored in the auxiliary storage device 703.
  • difference file difference program
  • 1,1A, 1B information providing system 100, 100A, 100B information providing device, 110 communication unit, 120 storage unit, 121 user DB, 122 layout DB, 123 furniture DB, 130 control unit, 131 attribute information reception unit (user information) Acquisition department), 132 image information reception department, 133 preference information reception department (user information acquisition department), 134 layout information generation department, 135 furniture arrangement department, 136 image information presentation department, 137 purchase reception department, 138 change deletion reception department, 200 user terminal, 210 communication unit, 220 display unit, 230 operation unit, 240 storage unit, 250 control unit, 251 attribute information transmission unit, 252 image information transmission unit, 253 preference information transmission unit, 254 image information display unit, NW network

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Abstract

情報提供システム1の情報提供装置100は、その機能として、ユーザの属性情報を受け付ける属性情報取得部131と、ユーザの部屋を撮影した画像情報を受け付ける画像情報受付部132と、ユーザの部屋の好みを示す嗜好情報を受け付ける嗜好情報取得部133と、ユーザの部屋の間取り情報を生成する間取り情報生成部134と、属性情報、間取り情報、または嗜好情報に基づき、当該ユーザに適した家具に係る家具情報を選択して部屋の画像情報に配置する家具配置部135と、家具を配置した画像情報をユーザへ提示する画像情報提示部136と、を備える。

Description

情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム
 本開示は、部屋を撮影した画像情報または映像情報に購入候補の家具が配置された状態を提示する情報提供装置、情報提供システム、情報提供方法及び情報提供プログラムに関する。
 近年、インターネット等の媒体を介して商品の販売を行う通信販売が普及してきている。特に、店舗で購入してから自宅へ搬入するのに手間がかかる、大型の商品や重量物の商品の場合、専用の配送業者により搬入してもらえるので有用である。
 このような大型の商品の例として、家具が挙げられる。家具についても、多数の業者により通信販売が行われている。特に、インターネットを介して家具の販売を行う業者の場合、インターネット上に家具の写真等の画像情報を掲載し、通信販売の弱点である実物を見て購入することができない点を補っている。
 しかしながら、家具の場合は、住居に配置されて使用するものであるため、現在居住している住居やこれから居住しようとしている住居との機能性またはデザイン性の相性や、他の家具との組み合わせも重要である。そのため、購入しようとしている者にとって、家具単体の画像情報を見てもイメージがわかず、購入の判断が難しいことも多い。そのため、家具の通信販売では、住居に実際に配置した場合のイメージをどのように提供できるかが重要である。
 特許文献1には、建築物の三次元モデルから、建築物の内部空間の画像を作成する内観画像作成装置が開示されている。特許文献1に記載の内観画像作成装置では、空間の平面形状、空間の開口、空間に配置されている建具、設備若しくは家具に基づき、所定の視点から空間の内観画像を作成するように構成されている。
特開2017-174310号公報
 しかしながら、特許文献1に記載の内観画像作成装置では、通信販売で実際に販売されている家具の画像情報を内覧画像に表示させるものではないため、現在居住している住居やこれから居住しようとしている住居との組み合わせのイメージを沸かせることはできないものであった。
 そこで、本開示では、部屋を撮影した画像情報または映像情報に対して、購入候補の家具が配置された状態の画像情報または映像情報を提示することが可能な情報提供装置、情報提供システム、情報提供方法及び情報提供プログラムについて説明する。
 本開示の一態様における情報提供装置は、ユーザ情報を取得するユーザ情報取得部と、部屋を撮影した画像情報または映像情報の入力を受け付ける画像情報受付部と、画像情報または映像情報に基づいて分析を行い、部屋の間取り情報を生成する間取り情報生成部と、ユーザ情報、及び間取り情報に基づき、あらかじめ記憶されている家具情報からユーザに適した家具情報を選択し、選択された家具情報に係る家具を、画像情報または映像情報に重ねて配置する家具配置部と、家具が配置された画像情報または映像情報をユーザへ提示する画像情報提示部と、を備える。
 本開示の一態様における情報提供システムは、情報提供装置と、ユーザ端末と、を備える情報提供システムであって、情報提供装置は、ユーザ情報を取得するユーザ情報取得部と、部屋を撮影した画像情報または映像情報の入力を受け付ける画像情報受付部と、画像情報または映像情報に基づいて分析を行い、部屋の間取り情報を生成する間取り情報生成部と、ユーザ情報、及び間取り情報に基づき、あらかじめ記憶されている家具情報からユーザに適した家具情報を選択し、選択された家具情報に係る家具を、画像情報または映像情報に重ねて配置する家具配置部と、家具が配置された画像情報または映像情報をユーザ端末へ送信する画像情報提示部と、を備え、ユーザ端末は、ユーザから、部屋の撮影を行い、撮影した画像情報または映像情報を情報提供装置へ送信する画像情報送信部と、家具が配置された画像情報または映像情報を情報提供装置から受信し、ユーザへ表示する画像情報表示部と、を備える。
 本開示の一態様における情報提供方法は、ユーザ情報取得部が行う、ユーザ情報を取得するユーザ情報取得ステップと、画像情報受付部が行う、部屋を撮影した画像情報または映像情報の入力を受け付ける画像情報受付ステップと、間取り情報生成部が行う、画像情報または映像情報に基づいて分析を行い、部屋の間取り情報を生成する間取り情報生成ステップと、家具配置部が行う、ユーザ情報、及び間取り情報に基づき、あらかじめ記憶されている家具情報からユーザに適した家具情報を選択し、選択された家具情報に係る家具を、画像情報または映像情報に重ねて配置する家具配置ステップと、画像情報提示部が行う、家具が配置された画像情報または映像情報をユーザへ提示する画像情報提示ステップと、を備える。
 また、本開示の一態様における情報提供プログラムは、ユーザ情報を取得するユーザ情報取得ステップと、部屋を撮影した画像情報または映像情報の入力を受け付ける画像情報受付ステップと、画像情報または映像情報に基づいて分析を行い、部屋の間取り情報を生成する間取り情報生成ステップと、ユーザ情報、及び間取り情報に基づき、あらかじめ記憶されている家具情報からユーザに適した家具情報を選択し、選択された家具情報に係る家具を、画像情報または映像情報に重ねて配置する家具配置ステップと、家具が配置された画像情報または映像情報をユーザへ提示する画像情報提示ステップと、を電子計算機に実行させる。
 本開示によれば、ユーザの部屋が撮影された画像情報または映像情報を受け付け、画像情報または映像情報の分析が行われて間取り情報を生成し、ユーザに適した家具情報を選択してその家具を画像情報または映像情報に配置し、ユーザへ提示する。そのため、ユーザから受け付けた実際の住居の間取り情報に、家具情報に係る家具が配置された状態を提示することができる。これにより、ユーザは、実際の自己の住居に購入候補の家具が配置された状態の三次元空間によるイメージを視覚的に把握することが可能になる。
本開示の一実施形態に係る情報提供システム1を示す機能ブロック構成図である。 図1のユーザ端末200を示す機能ブロック構成図である。 図1の情報提供システム1の動作を示すフローチャートである。 図2の表示部220に表示される、部屋の画像情報の例を示す模式図である。 図1の画像情報受付部132によって受け付けられた画像情報Rの例を示す模式図である。 図2の表示部220に表示される、嗜好情報の入力例を示す模式図である。 図1の家具DB123の格納例を示す模式図である。 図2の表示部220に表示される、画像情報の表示例を示す模式図である。 図2の表示部220に表示される、家具情報の提示例を示す模式図である。 本開示の一実施形態に係る情報提供システム1Aを示す機能ブロック構成図である。 本開示の一実施形態に係る情報提供システム1Bを示す機能ブロック構成図である。 本開示の一実施形態に係るコンピュータ700を示す機能ブロック構成図である。
 以下、本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。
 <構成>
 図1は、本開示の実施形態に係る情報提供システム1を示すブロック構成図である。この情報提供システム1は、限定ではなく例として、家具の販売を行う業者によって運営される、商品である家具情報の提供を行うシステムであり、この業者の顧客であるユーザの部屋を撮影した画像情報または映像情報に、販売する家具を配置した状態を提示するシステムである。ここで、ユーザの部屋を撮影した画像情報または映像情報とは、静止画による画像情報または動画による映像情報を含む概念であり、これらを総称して、以下「画像情報」と表記する。情報提供システム1による家具が配置された画像情報の提示は、例えば、拡張現実(AR)または複合現実(MR)の技術を用いて提供され、ユーザは、ユーザ端末を使用して、自己の部屋の画像情報に家具が配置された状態を把握する。
 また、情報提供システム1による、画像情報に配置される家具は、ユーザの属性情報や嗜好情報に基づいて選択される。そのため、この情報提供システム1では、ユーザの属性情報及び嗜好情報の入力を受け付ける。
 情報提供システム1は、情報提供装置100と、ユーザ端末200と、ネットワークNWとを有している。情報提供装置100と、ユーザ端末200とは、ネットワークNWを介して相互に接続される。ネットワークNWは、通信を行うための通信網であり、限定ではなく例として、インターネット、イントラネット、LAN(Local Area Network)、WAN(Wide Area Network)、ワイヤレスLAN(Wireless LAN:WLAN)、ワイヤレスWAN(Wireless WAN:WWAN)、仮想プライベートネットワーク(Virtual Private Network:VPN)等を含む通信網により構成されている。
 情報提供装置100は、ユーザから、ユーザの属性情報、部屋の画像情報、ユーザの嗜好情報の入力を受け付け、画像情報を分析して間取り情報を生成し、ユーザの属性情報及び嗜好情報からユーザに適した家具情報を選択してその家具を画像情報に配置し、ユーザへ提示する装置である。この情報提供装置100は、限定ではなく例として、各種Webサービスを提供するコンピュータ(デスクトップ、ラップトップ、タブレットなど)や、サーバ装置を含む装置等により構成されている。なお、サーバ装置は単体で動作するサーバ装置に限られず、ネットワークNWを介して通信を行うことで協調動作する分散型サーバシステムや、クラウドサーバでもよい。
 ユーザ端末200は、情報提供装置100に対して、ユーザの属性情報、部屋を撮影した画像情報、ユーザの嗜好情報を入力し、家具が配置された画像情報の提示を受けるための、ユーザが使用する端末装置であり、限定ではなく例として、スマートフォンや、携帯端末、コンピュータ(デスクトップ、ラップトップ、タブレットなど)等により構成されている。このユーザ端末200では、情報提供システム1のサービスの提供を受けるためのアプリがインストールされ、または情報提供装置100にアクセスするためのURL等が設定され、それらをタップまたはダブルクリック等して起動することにより、サービスが開始される。また、このユーザ端末200は、ユーザの部屋の撮影をするためのカメラ機能を備えている。
 情報提供装置100は、その機能構成として、通信部110と、記憶部120と、制御部130とを備える。
 通信部110は、ネットワークNWを介してユーザ端末200と有線または無線で通信を行うための通信インタフェースであり、互いの通信が実行出来るのであればどのような通信プロトコルを用いてもよい。この通信部110は、限定ではなく例として、TCP/IP(Transmission Control Protocol/Internet Protocol)等の通信プロトコルにより通信が行われる。
 記憶部120は、各種制御処理や制御部130内の各機能を実行するためのプログラムや入力データ等を記憶するものであり、限定ではなく例として、RAM(Random Access Memory)、ROM(Read Only Memory)等を含むメモリや、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含むストレージから構成される。また、記憶部120は、ユーザDB121と、間取りDB122と、家具DB123とを記憶する。さらに、記憶部120は、ユーザ端末200との間で通信を行った際のデータや、後述する各処理にて生成されたデータを一時的に記憶する。
 ユーザDB121には、情報提供システム1を運営する業者から家具を購入しようとするユーザを識別する識別データや、当該ユーザの年齢、性別、居住地といった属性情報が格納されている。ユーザの識別データは、情報提供システム1にログインするための情報であり、情報提供システム1で発行してもよく、ユーザの入力により決定してもよく、またはユーザのメールアドレス等であってもよい。
 さらに、ユーザDB121には、家具を購入しようとするユーザの嗜好情報が格納されている。嗜好情報とは、ユーザの家の居室や家具についての好みの情報である。具体的には、家の居室や家具のデザイン性、テイスト、色の情報、これらによる部屋の雰囲気、または使用する家具の機能性を示す情報であり、例えば、「アジアン」、「ヨーロッパ風」、「和風」、「ヴィンテージ」、「ダーク」、「アイボリー」、「ナチュラル」、「ロータイプ」といった情報である。この嗜好情報は、後述する嗜好情報取得部133により受け付けられ、前述の例のような文言からなるタグ情報が1または複数格納される。
 間取りDB122には、ユーザの部屋を撮影した画像情報と、この画像情報を分析することにより生成される、ユーザの部屋の間取り情報が格納される。間取り情報とは、具体的には、ユーザの部屋における壁や床、天井、ドアや窓、収納スペースの有無といった、ユーザの部屋の構造物の有無の情報や、部屋内部や各構造物間の寸法のような部屋の大きさの情報である。
 家具DB123には、情報提供システム1を運営する業者が販売する家具情報が格納されている。家具情報とは、具体的には、「ソファ」、「テーブル」といった家具の種類、「ヴィンテージ」、「ダーク」、「アイボリー」、「ナチュラル」といった家具のデザイン性やテイスト、色の情報、家具の寸法及び価格を示す情報である。
 また、家具DB123には、後述する家具配置部135により三次元空間に家具を配置するための、家具の画像情報が格納されている。三次元空間は立体(3D)モデル化された情報であるため、その三次元空間に配置するための家具の画像情報も、立体(3D)モデル化された情報である。
 制御部130は、記憶部120に記憶されているプログラムを実行することにより、情報提供装置100の全体の動作を制御するものであり、限定ではなく例として、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(Microprocessor)、プロセッサコア(Processor core)、マルチプロセッサ(Multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)を含む装置等から構成される。制御部130の機能として、属性情報取得部(ユーザ情報取得部)131と、画像情報受付部132と、嗜好情報取得部(ユーザ情報取得部)133と、間取り情報生成部134と、家具配置部135と、画像情報提示部136とを備えている。この属性情報取得部131、画像情報受付部132、嗜好情報取得部133、間取り情報生成部134、家具配置部135、及び画像情報提示部136は、記憶部120に記憶されているプログラムにより起動されて情報提供装置100にて実行される。
 属性情報取得部131は、ユーザ端末200から情報提供装置100へアクセスするユーザの属性情報を、通信部110を介して受け付ける。ユーザの属性情報は、限定ではなく例として、ユーザの年齢、性別、居住地の情報や、情報提供装置100で閲覧した家具の情報、情報提供システム1を運営する業者から購入した家具の情報が含まれる。この属性情報は、ユーザが情報提供システム1に会員登録をする際や、当該業者から家具を購入する際に入力する、ユーザの住所、氏名、連絡先、決済手段等の情報入力の際に受け付けられる。受け付けられたユーザの属性情報は、ユーザDB121に格納される。なお、属性情報取得部131は、ユーザの属性情報を他のWebサービス等から自動的に取得してもよい。
 画像情報受付部132は、ユーザ端末200からユーザの部屋の画像情報を、通信部110を介して受け付ける。部屋の画像情報は、ユーザの操作によりユーザ端末200が撮影した、ユーザの部屋の静止画による画像情報または動画による映像情報である。また、ここでいう部屋とは、ユーザが実際に居住している部屋とは限られず、これから入居しようとしている部屋(例えば、不動産物件の内覧中に撮影した画像情報や映像情報)であってもよい。
 ユーザによる部屋の画像情報の撮影の例について、以下に説明する。ユーザは、ユーザ端末200を操作して部屋の壁面のうちの1方向を撮影する。その状態で、画像情報受付部132からの指示により、ユーザ端末200の向きを水平方向に90°ずつ回転させて移動させ、撮影しながら部屋の中で略一周させ、部屋の壁面の4方向を撮影する。また、画像情報受付部132からの指示により、ユーザ端末200の向きを下方向に移動させて床面を撮影し、次に、ユーザ端末200の向きを上方向に移動させて天井面を撮影する。このようにして、部屋の全方向の画像情報、例えば、全方位画像または全天球画像として取得する。このとき、ユーザ端末200による部屋の壁面方向の撮影は、動画撮影でもよく、静止画の連続撮影でもよい。このユーザ端末200により撮影された画像情報や映像情報が情報提供装置100へ送信され、通信部110を介して画像情報受付部132が取得する。取得されたユーザの部屋の画像情報は、間取りDB122に格納される。
 嗜好情報取得部133は、ユーザ端末200から、ユーザの部屋の好みを示す嗜好情報を、通信部110を介して受け付ける。嗜好情報取得部133では、当該ユーザの嗜好情報として、前述のような家の居室や家具のデザイン性やテイスト、色の情報、これらによる部屋の雰囲気を取得するために、これらの情報についての質問をユーザ端末200へ送信し、その質問に対する回答を受け付けて嗜好情報として受け付ける。受け付けた嗜好情報は、ユーザDB121に格納される。なお、嗜好情報取得部133は、ユーザの嗜好情報を他のWebサービス等から自動的に取得してもよい。
 間取り情報生成部134は、画像情報受付部132で受け付けたユーザの部屋の画像情報に基づいて分析を行い、ユーザの部屋の間取り情報を生成する。具体的には、間取り情報生成部134はユーザ端末200により撮影された画像情報や映像情報を物体識別等の処理により分析し、ユーザの部屋における壁や床、天井を判別する。また、間取り情報生成部134は、既に配置されている家具や、ドアや窓、収納スペースの有無といった構造物の情報を抽出してもよく、これらの情報からユーザの部屋の間取り情報を生成してもよい。さらに、間取り情報生成部134は、撮影された画像情報や映像情報の分析を行い、ユーザの部屋の用途(例えば、一人暮らし用のワンルーム、複数室存在する住居のリビングルーム、等)やテイスト(例えば、ヴィンテージ、ダーク、等)の情報を抽出してもよい。また、間取り情報生成部134はユーザ端末200により撮影された画像情報や映像情報を分析し、部屋内部や各構造物間の寸法を算出する。生成された間取り情報は、間取りDB122に格納される。
 家具配置部135は、属性情報取得部131で受け付けた属性情報、嗜好情報取得部133で受け付けた嗜好情報、及び間取り情報生成部134で生成された部屋の間取り情報に基づき、家具DB123に格納されている家具情報から当該ユーザに適した家具に係る家具情報を選択する。なお、家具配置部135が選択する家具は、1または複数の家具でもよく、これらを提示してユーザの選択により決定してもよい。このとき、同様の種類の家具を複数提示してもよく、複数の家具からなるセットを提示してもよい。さらに、家具配置部135は、画像情報受付部132で受け付けた、ユーザの部屋を撮影した画像情報に対して、立体(3D)モデル化された家具の画像情報を重ねて配置し、拡張現実(AR)空間または複合現実(MR)空間を構成する。なお、家具配置部135は、あらかじめ定められたルールに従って家具の画像情報を三次元空間に配置してもよい。このルールは、例えば「ドアの前に家具を配置しない。」、「窓を遮蔽するように家具を配置しない(窓が遮蔽されない高さの家具であればよい)。」のように定められたものである。
 具体的には、家具配置部135は、家具DB123に格納されている家具情報から、家具の寸法や、家具の種類を示す物品情報、外観を示す形状情報、色情報、または価格情報に基づいて、部屋の間取り情報に基づいて当該部屋の雰囲気や寸法に合うように家具情報を選択する。このとき、家具配置部135は、部屋の画像情報における既に配置されている家具に重ならないように配置してもよく、部屋の画像情報における既に配置されている家具に代替するように重ねて配置してもよい。
 家具配置部135は、限定ではなく例として、当該ユーザや、当該属性を有する他のユーザが、情報提供システム1を運営する業者から過去に購入した購入情報(図示は省略する)から、属性情報取得部131で受け付けた属性情報に基づいて当該ユーザの好みに近い家具であると判定し、当該ユーザに適した家具に係る家具情報として選択する。例えば、属性情報に基づいて、ユーザを○○県在住の20代女性、△△県在住の40代男性、のようなセグメントごとに分類し、セグメントごとに見られる購買行動の特徴から、ユーザの好みに近い家具の種類、形状、価格帯の家具情報に基づいて家具DB123から選択してもよい。
 また、家具配置部135は、限定ではなく例として、画像情報受付部132で受け付けた間取り情報からその部屋の雰囲気を示す雰囲気情報を決定し、当該雰囲気情報に属する家具を、当該ユーザに適した家具に係る家具情報として選択する。例えば、間取り情報の画像情報や映像情報の解析結果から、部屋の雰囲気を「アジアン」、「ヨーロッパ風」といった雰囲気情報に分類し、該当する雰囲気の家具情報をユーザの好みに近い家具情報として家具DB123から選択してもよい。
 また、家具配置部135は、限定ではなく例として、嗜好情報取得部133で受け付けた嗜好情報から当該ユーザの嗜好情報を決定し、当該嗜好情報に属する家具を、当該ユーザに適した家具に係る家具情報として選択する。例えば、嗜好情報取得部133による質問への回答から、ユーザの嗜好情報を「ヴィンテージ」、「ダーク」、「アイボリー」といった嗜好情報に分類し、該当する家具情報をユーザの好みに近い家具情報として家具DB123から選択してもよい。
 画像情報提示部136は、家具配置部135にて家具を配置し、拡張現実(AR)空間または複合現実(MR)空間を構成した画像情報を、通信部110を介してユーザ端末200へ送信し、ユーザへ提示する。提示される画像情報は、例えば、全方位画像または全天球画像により表現される。
 また、画像情報提示部136は、拡張現実(AR)空間または複合現実(MR)空間の画像情報と共に、配置された家具の家具情報、例えば家具の物品情報、形状情報、色情報、または価格情報を、通信部110を介してユーザ端末200へ送信し、ユーザへ提示する。ユーザが家具の外観だけではなく、名称や価格等のような情報も、家具購買の決定に際して、ユーザにとって必要だからである。
 図2は、図1のユーザ端末200を示す機能ブロック構成図である。ユーザ端末200は、通信部210と、表示部220と、操作部230と、記憶部240と、制御部250とを備える。
 通信部210は、ネットワークNWを介して情報提供装置100と有線または無線で通信を行うための通信インタフェースであり、互いの通信が実行できるのであればどのような通信プロトコルを用いてもよい。この通信部210は、限定ではなく例として、TCP/IP等の通信プロトコルにより通信が行われる。
 表示部220は、ユーザから入力された操作内容や、情報提供装置100からの送信内容を表示するために用いられるユーザインタフェースであり、液晶ディスプレイ等から構成される。表示部220では、ユーザが入力する属性情報、嗜好情報や、情報提供装置100から送信されて提示される、拡張現実(AR)空間または複合現実(MR)空間の画像情報を表示する。
 操作部230は、ユーザが操作指示を入力するために用いられるユーザインタフェースであり、キーボードやマウス、タッチパネル等から構成される。操作部230では、ユーザの属性情報や嗜好情報が入力される。
 記憶部240は、各種制御処理や制御部250内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、限定ではなく例として、RAM、ROM等を含むメモリや、HDD、SSD、フラッシュメモリ等を含むストレージから構成される。また、記憶部240は、情報提供装置100と通信を行ったデータを一時的に記憶する。
 制御部250は、記憶部240に記憶されているプログラムを実行することにより、ユーザ端末200の全体の動作を制御するものであり、限定ではなく例として、CPU、MPU、GPU、マイクロプロセッサ、プロセッサコア、マルチプロセッサ、ASIC、FPGAを含む装置等から構成される。制御部250の機能として、属性情報送信部251と、画像情報送信部252と、嗜好情報送信部253と、画像情報表示部254とを備えている。この属性情報送信部251、画像情報送信部252、嗜好情報送信部253、及び画像情報表示部254は、記憶部240に記憶されているプログラムにより起動されてユーザ端末200にて実行される。
 属性情報送信部251は、ユーザの属性情報の入力を操作部230から受け付け、通信部210を介して情報提供装置100へ送信する。送信された属性情報は、情報提供装置100の属性情報取得部131で受け付けられる。
 画像情報送信部252は、ユーザの操作によりカメラ機能でユーザの部屋を撮影し、撮影した画像情報を、通信部210を介して情報提供装置100へ送信する。送信された間取り情報は、情報提供装置100の画像情報受付部132で受け付けられる。
 嗜好情報送信部253は、ユーザの嗜好情報の入力を操作部230から受け付け、通信部210を介して情報提供装置100へ送信する。送信された属性情報は、情報提供装置100の嗜好情報取得部133で受け付けられる。
 画像情報表示部254は、情報提供装置100の画像情報提示部136から送信された、家具が配置されて拡張現実(AR)空間または複合現実(MR)空間が構成された画像情報を、通信部210を介して受け付ける。受け付けた画像情報は、表示部220に表示される。
 <処理の流れ>
 図3を参照しながら、情報提供システム1が実行する、情報提供処理の流れの一例について説明する。図3は、図1の情報提供システム1の動作を示すフローチャートである。
 ステップS101の処理として、情報提供装置100では、情報提供システム1によるサービスの提供を受けるために、ユーザ認証が行われる。そのため、例えば、ユーザの操作によりユーザ端末200でユーザの年齢、性別、居住地の情報が入力されてユーザ登録が行われる。このとき、ユーザ端末200の属性情報送信部251では、ユーザの属性情報が入力され、情報提供装置100の属性情報取得部131では、ユーザの属性情報が通信部110を介して受け付けられ、ユーザDB121に格納される。また、情報提供システム1にログインするため、アカウント情報とパスワードの入力要求が行われ、入力された情報に基づいて登録されている情報と一致するか照合することで、ユーザ認証が行われる。一致した場合、情報提供装置100にログインされる。
 ステップS102の処理として、ユーザ端末200の画像情報送信部252では、ユーザの操作により、ユーザの部屋がカメラ機能で撮影され、撮影された画像情報が情報提供装置100へ送信される。情報提供装置100の画像情報受付部132では、ユーザの部屋の画像情報が通信部110を介して受け付けられる。
 図4は、図2の表示部220に表示される、部屋の画像情報の例を示す模式図である。ユーザ端末200の操作により画像情報送信部252が起動されると、ユーザ端末200のカメラ機能が起動して撮影状態になり、ユーザ端末200に備えるCCDカメラ等の撮影によりユーザの部屋が撮影され、図4に示すように、表示部220に表示される。
 図4に示すように、例えば、ユーザの部屋を撮影した画像情報が表示部220に表示される。ユーザの部屋は、例えば、壁面W1と、壁面W1と垂直方向に接する壁面W2と、壁面W1及び壁面W2の下部に水平方向に接する床面F1と、壁面W1及び壁面W2の上部に水平方向に接する天井面C1と、により構成され、この部屋の一部を撮影した画像が表示部220に表示される。なお、壁面W1,W2は、必ずしも部屋の四隅を囲う壁面である必要はなく、一部が開放されていてもよく、方形の部屋でなくてもよい。また、図4に示すように、窓等の構造物が存在してもよい。
 部屋の撮影は、例えば、画像情報受付部132からの指示により、ユーザ端末200を操作して部屋の壁面のうちの1方向、例えば図4に示す矢印A方向に向けて壁面W1を撮影する。次に、画像情報受付部132からの指示により、ユーザ端末200の向きを水平方向に90°回転させて右方向に移動させ、例えば図4に示す矢印B方向に向けて壁面W2を撮影する。このようにして、撮影しながら部屋の中で略一周させ、部屋の壁面の4方向を撮影する。
 次に、画像情報受付部132からの指示により、ユーザ端末200の向きを、図4に示す矢印C方向に移動させて部屋の床面F1を撮影する。さらに、画像情報受付部132からの指示により、ユーザ端末200の向きを、図4に示す矢印D方向に移動させて部屋の天井面C1を撮影する。このようにして、ユーザの部屋の全方向の画像情報を、全方位画像または全天球画像として取得する。この間取り情報は、情報提供装置100へ送信される。
 図5は、図1の画像情報受付部132によって受け付けられた画像情報Rの例を示す模式図である。ステップS102で、ユーザ端末200により撮影された画像情報や映像情報は、図5に示す壁面W1,W2、床面F1、及び天井面C1のように構成された画像情報Rのように、例えば全方位画像として生成される。この画像情報Rは、ユーザの部屋の四方向の画像を連続的に表現したものであり、どの方向を向いてもユーザの部屋の画像情報が見れるようになっている。すなわち、図5では表現できていないが、右端と左端とが連続的に接しており、上下方向についても同様である。
 ステップS103の処理として、情報提供装置100の嗜好情報取得部133では、ユーザの嗜好情報についての質問が送信され、ユーザ端末200の表示部220に表示される。嗜好情報送信部253では、ユーザの操作によりユーザの嗜好情報が入力されて情報提供装置100へ送信される。情報提供装置100の嗜好情報取得部133では、ユーザの嗜好情報が通信部110を介して受け付けられる。
 図5は、図2の表示部220に表示される、嗜好情報の入力例を示す模式図である。情報提供装置100からユーザの嗜好情報についての質問が送信されると、その質問内容及び回答の選択肢が、図5に示すように、ユーザ端末200の表示部220に表示される。
 図5に示すように、例えば、ユーザの嗜好情報の1つである、家の居室や家具のテイストを選択する質問文T1が表示され、選択ボタンB1,B2,B3が表示部220に表示される。選択ボタンB1,B2,B3は、家の居室や家具のテイストについて、それぞれ「アイボリー」、「ホワイト」、「ナチュラル」と回答するためのボタンである。この質問に対して、ユーザは選択ボタンB1,B2,B3のいずれか1つを選択(表示部220上でタップ)すると、その回答が嗜好情報送信部253で受け付けられ、情報提供装置100へ送信される。
 ステップS104の処理として、情報提供装置100の間取り情報生成部134では、ステップS102で受け付けたユーザの部屋の画像情報に基づいて分析が行われ、ユーザの部屋の間取り情報が生成される。ユーザの部屋の画像情報から、ユーザの部屋における壁や床、天井を判別され、部屋内部や各構造物間の寸法が算出される。このとき、ドアや窓、収納スペースの有無といった構造物の情報を抽出してもよい。
 ステップS105の処理として、家具配置部135では、ステップS101で受け付けられた属性情報、ステップS103で受け付けられた嗜好情報、及びステップS104で生成された間取り情報に基づき、家具DB123に格納されている家具情報から当該ユーザに適した家具に係る家具情報が選択される。
 図7は、図1の家具DB123の格納例を示す模式図である。家具DB123には、図7に示す商品IDに紐づいて、図7に示す家具DB123の列名に対応して、商品名、商品画像、テイスト、寸法データ、及び価格の各情報が含まれる。
 商品IDは、家具情報を識別する識別情報である。商品名は、家具の種類を示す物品名であり、例えば、「ソファ」、「テーブル」、「収納棚」のような情報が格納されている。商品画像は、三次元空間に家具を配置するための、立体(3D)モデル化された家具の画像情報である。テイストは、家具のテイストを示す情報であり、例えば、「アイボリー」、「ホワイト」、「ナチュラル」のような情報が格納されている。寸法データは、当該家具の実際の寸法が、例えば幅、奥行き、高さの情報として格納されている。価格は、当該家具の価格情報である。ステップS105では、これらの情報から、当該ユーザに適した家具に係る家具情報が選択される。
 ステップS106の処理として、家具配置部135では、ステップS102で受け付けられたユーザの部屋を撮影した画像情報に対して、ステップS105で選択された、立体(3D)モデル化された家具の画像情報が重ねて配置され、拡張現実(AR)空間または複合現実(MR)空間が構成される。
 図8は、図2の表示部220に表示される、画像情報の表示例を示す模式図である。ステップS106では、図6に示すようなユーザの部屋を撮影した拡張現実(AR)空間、または複合現実(MR)空間に対して、ステップS105で選択された、図7の商品画像に示すような立体(3D)モデル化された家具の画像情報が配置される。図8に示す例では、家具の例として椅子G1及びテーブルG2が配置されている。この椅子G1及びテーブルG2は、画像情報では他の家具が配置されていた位置に重ねて表示されたものでもよく、画像情報では他の家具は配置されていない状態で重ねて表示されたものでもよい。この画像情報は、後述するステップS107において、ユーザ端末200へ送信されて表示部220に表示される。
 ステップS107の処理として、画像情報提示部136では、ステップS106で家具が配置され、拡張現実(AR)空間または複合現実(MR)空間を構成した画像情報が、通信部110を介してユーザ端末200へ送信される。ユーザ端末200の画像情報表示部254では、受け付けた画像情報が、図8に示すように表示部220に表示される。このとき、画像情報提示部136では、配置された家具の家具情報も送信されるので、画像情報表示部254では、受け付けた家具情報も表示される。
 図9は、図2の表示部220に表示される、家具情報の提示例を示す模式図である。図9に示すように、図8に示すユーザの部屋を模した拡張現実(AR)空間、または複合現実(MR)空間の表示に対して、ステップS107で受け付けた家具情報が、図9に示すように家具情報T2として表示される。家具情報T2は、例えば商品名(家具の物品名)、価格、及び当該家具を参照するためのWebページへのリンク情報が表示されている。ユーザは、この家具情報も参照することで、購入するか否か判断することができる。
 <効果>
 以上のように、本実施形態に係る情報提供装置、情報提供システム及び情報提供方法では、画像情報受付部によりユーザの部屋が撮影された画像情報が受け付けられ、間取り情報生成部により間取り情報が生成され、家具配置部によりユーザに適した家具情報が選択されてその家具が画像情報に配置されて拡張現実(AR)空間または複合現実(MR)空間として構成され、、ユーザに提示される。そのため、ユーザから受け付けた実際の住居の間取り情報に、家具情報に係る家具が配置された状態を提示することができる。これにより、ユーザは、実際の自己の住居や部屋に購入候補の家具が配置された状態の三次元空間によるイメージを視覚的に把握することが可能になる。
 また、属性情報受付部によりユーザの属性情報が受け付けられ、嗜好情報受付部によりユーザの部屋の好みを示す嗜好情報が受け付けられ、家具配置部により、ユーザの属性情報及び嗜好情報に基づいてユーザに適した家具情報が選択される。これにより、ユーザの好みに近い家具を提示することが可能になる。
 (実施形態2)
 図10は、本開示の実施形態2に係る情報提供システム1Aを示す機能ブロック構成図である。この情報提供システム1Aは、家具の販売を行う業者によって運営される、商品である家具情報の提供を行うシステムであり、この業者の顧客であるユーザの部屋を撮影した画像情報に、販売する家具を配置した状態を提示するシステムである点において、実施形態1に係る情報提供システム1と同様であるが、制御部130の機能として購入受付部137を備えている点において、実施形態1に係る情報提供システム1と異なる。その他の構成及び処理の流れについては、実施形態1と同様である。
 本実施形態では、実施形態1において提示した家具について、実際に購入するための手段を備えている。
 購入受付部137は、ユーザ端末200から、家具配置部135によって画像情報に配置され、画像情報提示部136によって提示された家具を、ユーザが実際に購入する旨の入力を受け付ける。
 例えば、図9に示す家具情報T2を選択(表示部220上でタップ)すると、購入受付部137が起動して表示部220に購入手続きを行う画面(図示は省略する)が表示される。ユーザは、ユーザ端末200の操作により決済方法等を入力し、決済を行う意思表示をすることにより、実際に当該家具の販売が行われる。
 本実施形態によれば、上記実施形態1の効果に加え、購入受付部により、ユーザによる家具の購入手続きが行われる。これにより、家具の購入手続きを容易に行うことができるので、家具の販売業者にとって、購入手続きが面倒であることによる顧客獲得の機会逸失を防止できる。
 (実施形態3)
 図11は、本開示の実施形態3に係る情報提供システム1Bを示す機能ブロック構成図である。この情報提供システム1Bは、家具の販売を行う業者によって運営される、商品である家具情報の提供を行うシステムであり、この業者の顧客であるユーザの部屋を撮影した画像情報に、販売する家具を配置した状態を提示するシステムである点において、実施形態1に係る情報提供システム1と同様であるが、制御部130の機能として変更削除受付部138を備えている点において、実施形態1に係る情報提供システム1と異なる。その他の構成及び処理の流れについては、実施形態1と同様である。
 本実施形態では、実施形態1において提示した家具について位置の移動、変更または削除をするための機能を備えている。
 変更削除受付部138は、ユーザ端末200から、家具配置部135によって画像情報に配置され、画像情報提示部136によって提示された家具をこの三次元空間における他の位置へ移動、家具の変更または削除する旨の入力を受け付ける。
 例えば、図9に示す椅子G1またはテーブルG2を当該三次元空間内の他の位置へ移動させるために表示部220上で所定の操作(例えば、当該家具を選択して他の位置へスワイプ)を行うと、椅子G1またはテーブルG2が移動後の位置に表示される。また、例えば、図9に示す椅子G1またはテーブルG2を他の家具に変更したり、削除したりするために表示部220上で所定の操作(例えば、当該家具を選択して画面外へスワイプ)を行うと、家具DB123から再度他の家具が選択され、または表示部220に表示されている三次元空間から削除される。
 本実施形態によれば、上記実施形態1の効果に加え、変更削除受付部により、提示された家具の変更または削除が行われる。これにより、家具配置部により選択された家具が好みに合わない場合、家具を変更したり削除したりすることができるので、ユーザの好みにより近い家具を提示することが可能である。
 (実施形態4(プログラム))
 図12は、コンピュータ(電子計算機)700の構成の例を示す機能ブロック構成図である。コンピュータ700は、CPU701、主記憶装置702、補助記憶装置703、インタフェース704を備える。
 ここで、実施形態1ないし3に係る属性情報取得部131と、画像情報受付部132と、嗜好情報取得部133と、間取り情報生成部134と、家具配置部135と、画像情報提示部136と、購入受付部137と、変更削除受付部138とを構成する各機能を実現するための制御プログラム(情報提供プログラム)の詳細について説明する。これらの機能ブロックは、コンピュータ700に実装される。そして、これらの各構成要素の動作は、プログラムの形式で補助記憶装置703に記憶されている。CPU701は、プログラムを補助記憶装置703から読み出して主記憶装置702に展開し、当該プログラムに従って前述の処理を実行する。また、CPU701は、プログラムに従って、上述した記憶部に対応する記憶領域を主記憶装置702に確保する。
 当該プログラムは、具体的には、コンピュータ700において、ユーザ情報を取得するユーザ情報取得ステップと、ユーザの操作により、部屋を撮影した画像情報の入力を受け付ける画像情報受付ステップと、画像情報に基づいて分析を行い、部屋の間取り情報を生成する間取り情報生成ステップと、ユーザ情報、及び間取り情報に基づき、あらかじめ記憶されている家具情報からユーザに適した家具情報を選択し、選択された家具情報に係る家具を、画像情報に重ねて配置する家具配置ステップと、家具が配置された画像情報をユーザへ提示する画像情報提示ステップと、をコンピュータによって実現する制御プログラムである。
 なお、補助記憶装置703は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース704を介して接続される磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等が挙げられる。また、このプログラムがネットワークを介してコンピュータ700に配信される場合、配信を受けたコンピュータ700が当該プログラムを主記憶装置702に展開し、前述の処理を実行してもよい。
 また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、当該プログラムは、前述した機能を補助記憶装置703に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。
 以上、開示に係る実施形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換および変更を行なって実施することが出来る。これらの実施形態および変形例ならびに省略、置換および変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。
1,1A,1B 情報提供システム、100,100A,100B 情報提供装置、110 通信部、120 記憶部、121 ユーザDB、122 間取りDB、123 家具DB、130 制御部、131 属性情報受付部(ユーザ情報取得部)、132 画像情報受付部、133 嗜好情報受付部(ユーザ情報取得部)、134 間取り情報生成部、135 家具配置部、136 画像情報提示部、137 購入受付部、138 変更削除受付部、200 ユーザ端末、210 通信部、220 表示部、230 操作部、240 記憶部、250 制御部、251 属性情報送信部、252 画像情報送信部、253 嗜好情報送信部、254 画像情報表示部、NW ネットワーク

Claims (17)

  1.  ユーザ情報を取得するユーザ情報取得部と、
     部屋を撮影した画像情報または映像情報の入力を受け付ける画像情報受付部と、
     前記画像情報または前記映像情報に基づいて分析を行い、前記部屋の間取り情報を生成する間取り情報生成部と、
     前記ユーザ情報、及び前記間取り情報に基づき、あらかじめ記憶されている家具情報から前記ユーザに適した家具情報を選択し、選択された前記家具情報に係る家具を、前記画像情報または前記映像情報に重ねて配置する家具配置部と、
     前記家具が配置された前記画像情報または前記映像情報を前記ユーザへ提示する画像情報提示部と、を備える情報提供装置。
  2.  前記間取り情報生成部は、受け付けた前記画像情報または前記映像情報に基づいて前記部屋の寸法を決定し、
     前記家具配置部は、前記寸法に基づき、選択された前記家具情報に係る家具を前記画像情報または前記映像情報に重ねて配置する、請求項1に記載の情報提供装置。
  3.  前記家具配置部は、あらかじめ記憶されている3Dモデル化された家具情報から、選択された前記家具情報に係る家具を前記画像情報または前記映像情報に重ねて配置し、
     前記画像情報提示部は、3Dモデル化された前記家具情報が配置された前記画像情報または前記映像情報を前記ユーザへ提示する、請求項1または請求項2に記載の情報提供装置。
  4.  前記画像情報提示部は、前記家具が配置された前記画像情報または前記映像情報において、前記家具情報を前記ユーザへ提示する、請求項1から請求項3のいずれか1項に記載の情報提供装置。
  5.  前記家具が配置された前記画像情報または前記映像情報において、配置された前記家具を前記三次元空間における他の位置へ移動、配置された前記家具を他の前記家具へ変更、または配置された前記家具を削除する変更削除受付部を備える、請求項1から請求項4のいずれか1項に記載の情報提供装置。
  6.  前記ユーザ情報取得部は、前記ユーザの属性情報と、前記ユーザの部屋の好みを示す嗜好情報と、を取得する、請求項1から請求項5のいずれか1項に記載の情報提供装置。
  7.  前記家具配置部は、前記属性情報に基づき、類似する属性情報を有する他のユーザが過去に家具を購入した購入情報から、前記ユーザに適した家具情報を選択する、請求項6に記載の情報提供装置。
  8.  前記家具配置部は、前記ユーザへの1または複数の質問に対する回答に基づいて前記ユーザの嗜好情報を決定し、決定した前記嗜好情報から、前記ユーザに適した家具情報を選択する、請求項6または請求項7に記載の情報提供装置。
  9.  前記ユーザから、前記家具が配置された前記画像情報または前記映像情報における前記家具の購入の入力を受け付ける購入受付部を備える、請求項1から請求項8のいずれか1項に記載の情報提供装置。
  10.  前記家具配置部は、前記間取り情報に基づいて前記部屋の雰囲気を示す雰囲気情報を決定し、決定した前記雰囲気情報から、前記ユーザに適した家具情報を選択する、請求項1から請求項9のいずれか1項に記載の情報提供装置。
  11.  前記家具配置部は、前記家具情報として記憶されている家具の物品情報、形状情報、色情報、または価格情報のいずれか1つまたは複数に基づき、前記ユーザに適した家具情報を選択する、請求項1から請求項10のいずれか1項に記載の情報提供装置。
  12.  前記間取り情報受付部は、前記部屋の床面、前記部屋の壁面、及び前記部屋の天井面を撮影した画像情報または前記映像情報に基づき、前記間取り情報を受け付ける、請求項1から請求項11のいずれか1項に記載の情報提供装置。
  13.  前記家具配置部は、前記家具情報に係る家具を、前記部屋に既に配置されている家具に重ならないように、または前記部屋に既に配置されている家具に代替するように重ねて配置する、請求項1から請求項12のいずれか1項に記載の情報提供装置。
  14.  前記画像情報提示部は、前記家具が配置された前記画像情報または前記映像情報を、拡張現実空間または複合現実空間として前記ユーザへ提示する、請求項1から請求項13のいずれか1項に記載の情報提供装置。
  15.  情報提供装置と、ユーザ端末と、を備える情報提供システムであって、
     前記情報提供装置は、
      ユーザ情報を取得するユーザ情報取得部と、
      部屋を撮影した画像情報または映像情報の入力を受け付ける画像情報受付部と、
      前記画像情報または前記映像情報に基づいて分析を行い、前記部屋の間取り情報を生成する間取り情報生成部と、
      前記ユーザ情報、及び前記間取り情報に基づき、あらかじめ記憶されている家具情報から前記ユーザに適した家具情報を選択し、選択された前記家具情報に係る家具を、前記画像情報または前記映像情報に重ねて配置する家具配置部と、
      前記家具が配置された前記画像情報または前記映像情報を前記ユーザ端末へ送信する画像情報提示部と、を備え、
     前記ユーザ端末は、
      前記ユーザから、部屋の撮影を行い、撮影した画像情報または前記映像情報を前記情報提供装置へ送信する画像情報送信部と、
      前記家具が配置された前記画像情報または前記映像情報を前記情報提供装置から受信し、前記ユーザへ表示する画像情報表示部と、を備える、情報提供システム。
  16.  ユーザ情報取得部が行う、ユーザ情報を取得するユーザ情報取得ステップと、
     画像情報受付部が行う、部屋を撮影した画像情報または映像情報の入力を受け付ける画像情報受付ステップと、
     間取り情報生成部が行う、前記画像情報または前記映像情報に基づいて分析を行い、前記部屋の間取り情報を生成する間取り情報生成ステップと、
     家具配置部が行う、前記ユーザ情報、及び前記間取り情報に基づき、あらかじめ記憶されている家具情報から前記ユーザに適した家具情報を選択し、選択された前記家具情報に係る家具を、前記画像情報または前記映像情報に重ねて配置する家具配置ステップと、
     画像情報提示部が行う、前記家具が配置された前記画像情報または前記映像情報を前記ユーザへ提示する画像情報提示ステップと、を備える情報提供方法。
  17.  ユーザ情報を取得するユーザ情報取得ステップと、
     部屋を撮影した画像情報または映像情報の入力を受け付ける画像情報受付ステップと、
     前記画像情報または前記映像情報に基づいて分析を行い、前記部屋の間取り情報を生成する間取り情報生成ステップと、
     前記ユーザ情報、及び前記間取り情報に基づき、あらかじめ記憶されている家具情報から前記ユーザに適した家具情報を選択し、選択された前記家具情報に係る家具を、前記画像情報または前記映像情報に重ねて配置する家具配置ステップと、
     前記家具が配置された前記画像情報または前記映像情報を前記ユーザへ提示する画像情報提示ステップと、を電子計算機に実行させるための、情報提供プログラム。
PCT/JP2020/045342 2019-12-24 2020-12-04 情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム WO2021131623A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20907749.4A EP4083928A4 (en) 2019-12-24 2020-12-04 DEVICE, SYSTEM, METHOD AND PROGRAM FOR PROVIDING INFORMATION
US17/579,798 US20220148269A1 (en) 2019-12-24 2022-01-20 Information providing apparatus, information providing system, and information providing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-233398 2019-12-24
JP2019233398A JP6838130B1 (ja) 2019-12-24 2019-12-24 情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/579,798 Continuation US20220148269A1 (en) 2019-12-24 2022-01-20 Information providing apparatus, information providing system, and information providing method

Publications (1)

Publication Number Publication Date
WO2021131623A1 true WO2021131623A1 (ja) 2021-07-01

Family

ID=74673588

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/045342 WO2021131623A1 (ja) 2019-12-24 2020-12-04 情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム

Country Status (4)

Country Link
US (1) US20220148269A1 (ja)
EP (1) EP4083928A4 (ja)
JP (2) JP6838130B1 (ja)
WO (1) WO2021131623A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6961157B1 (ja) * 2021-05-25 2021-11-05 株式会社x garden 情報処理システム、情報処理方法及びプログラム
JP7313400B2 (ja) * 2021-06-18 2023-07-24 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2024071259A1 (ja) * 2022-09-27 2024-04-04 ダイキン工業株式会社 プログラム、情報処理方法、情報処理装置及び表示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022826A (ja) * 1999-07-09 2001-01-26 Hitachi Ltd 顧客関係学習システム
JP2017054516A (ja) * 2007-09-25 2017-03-16 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境内にバーチャルオブジェクトを描写する方法および装置
JP2017174310A (ja) 2016-03-25 2017-09-28 株式会社ファイン 内観画像作成装置、内観画像作成方法及びコンピュータプログラム
US20190164340A1 (en) * 2017-11-24 2019-05-30 Frederic Bavastro Augmented reality method and system for design

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325486A (ja) * 2000-05-16 2001-11-22 Tis Inc 電子商取引手段を含んだシミュレーションシステム
JPWO2015037473A1 (ja) * 2013-09-11 2017-03-02 ソニー株式会社 画像処理装置および方法
KR20160033495A (ko) * 2014-09-18 2016-03-28 서강대학교산학협력단 증강현실을 이용한 가구 배치 장치 및 방법
US11308705B2 (en) * 2017-03-29 2022-04-19 Rakuten Group, Inc. Display control device, display control method, and program
US10319150B1 (en) * 2017-05-15 2019-06-11 A9.Com, Inc. Object preview in a mixed reality environment
KR101980261B1 (ko) * 2018-06-12 2019-05-21 전동호 증강현실을 이용한 가구배치 시뮬레이션 시스템 및 방법과 이를 위한 컴퓨터 프로그램

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022826A (ja) * 1999-07-09 2001-01-26 Hitachi Ltd 顧客関係学習システム
JP2017054516A (ja) * 2007-09-25 2017-03-16 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境内にバーチャルオブジェクトを描写する方法および装置
JP2017174310A (ja) 2016-03-25 2017-09-28 株式会社ファイン 内観画像作成装置、内観画像作成方法及びコンピュータプログラム
US20190164340A1 (en) * 2017-11-24 2019-05-30 Frederic Bavastro Augmented reality method and system for design

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Trying Out 'magicplan', the Smartphone App that Lets You Create Your Ideal Room by Quickly Making a Furnished Floor Plan Displayable in 3D View", GIGAZINE, 15 January 2019 (2019-01-15), XP055837842, Retrieved from the Internet <URL:https://gigazine.net/news/20190115-magicplan> [retrieved on 20201217] *
MAGICPLAN: "MagicPlan' Lets You Simply Create Floor Plans Using Your iPhone Camera", TOUCH LAB, 15 April 2011 (2011-04-15), XP055837846, Retrieved from the Internet <URL:http://touchlab.jp/2011/04/magicplan-iphone> [retrieved on 20201217] *
MAGICPLAN: "You Can Leave a History of the Rooms You've Lived in So Far?! Trying Out MagicPlan, the App that Uses Photos to Create a Floor Plan", NAVI, 27 February 2016 (2016-02-27), XP055837868, Retrieved from the Internet <URL:https://hikkoshi-rakunavi.com/wp/?p=6746> [retrieved on 20201217] *

Also Published As

Publication number Publication date
JP2021103527A (ja) 2021-07-15
EP4083928A4 (en) 2023-10-04
JP2021103364A (ja) 2021-07-15
JP6838130B1 (ja) 2021-03-03
US20220148269A1 (en) 2022-05-12
EP4083928A1 (en) 2022-11-02

Similar Documents

Publication Publication Date Title
JP6838129B1 (ja) 情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム
WO2021131623A1 (ja) 情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム
US11127213B2 (en) Techniques for crowdsourcing a room design, using augmented reality
US10431003B2 (en) Three-dimensional virtual environment
US20180107639A1 (en) System and method for providing a time-based presentation of a user-navigable project model
US9965800B1 (en) Display of an electronic representation of a physical object in a virtual environment
US20220318932A1 (en) System and method for making reservations in a hospitality establishment
CA2801512A1 (en) System and method for virtual touring of model homes
JP7415390B2 (ja) 購入商品管理システム、ユーザ端末、サーバ、購入商品管理方法、及びプログラム
KR101887810B1 (ko) 가상현실과 증강현실을 이용한 이삿짐 시뮬레이션 제공과 이를 통한 부동산 중개 시스템
TW201710871A (zh) 圖形處理數據,特別是通過網格比較處理數據
US11488373B2 (en) System and method of providing a customizable virtual environment
US20120019564A1 (en) Methods, Systems, and Media for Presenting Works of Art to a Viewer
JP2004318482A (ja) 住宅販売・リフォーム総合管理システム
JP7426789B2 (ja) 不動産仲介システムおよび不動産仲介方法
US20130174085A1 (en) Interactive online showing
US11756108B2 (en) Virtual/augmented reality custom ordering service
JP2002245294A (ja) 仮想空間を利用したモデル住宅システム
JP4965401B2 (ja) インフィルレイアウト検討支援システム
TW201044297A (en) Internet e-commerce system capable of scenario foreseeing, the management method and computer program
JP2022039958A (ja) サイネージ端末、サイネージ端末管理方法、及びサイネージ端末管理プログラム
JP2024021646A (ja) 建築物販売方法、及び建築物販売システム
WO2020170005A1 (en) The system and selling application in the form of business and service centers in virtual and augmented reality platforms
JP2006023869A (ja) オーダ品発注支援システムおよびオーダ品発注支援方法
TWM538629U (zh) 具虛擬導覽的場地租借系統

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20907749

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020907749

Country of ref document: EP

Effective date: 20220725