WO2021220487A1 - コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム - Google Patents

コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム Download PDF

Info

Publication number
WO2021220487A1
WO2021220487A1 PCT/JP2020/018322 JP2020018322W WO2021220487A1 WO 2021220487 A1 WO2021220487 A1 WO 2021220487A1 JP 2020018322 W JP2020018322 W JP 2020018322W WO 2021220487 A1 WO2021220487 A1 WO 2021220487A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
selection
person
unit
display device
Prior art date
Application number
PCT/JP2020/018322
Other languages
English (en)
French (fr)
Inventor
政哉 隅谷
Original Assignee
シャープNecディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープNecディスプレイソリューションズ株式会社 filed Critical シャープNecディスプレイソリューションズ株式会社
Priority to PCT/JP2020/018322 priority Critical patent/WO2021220487A1/ja
Priority to PCT/JP2021/017076 priority patent/WO2021221126A1/ja
Priority to JP2022518132A priority patent/JP7389240B2/ja
Priority to CN202180029025.2A priority patent/CN115427937A/zh
Publication of WO2021220487A1 publication Critical patent/WO2021220487A1/ja
Priority to US17/960,402 priority patent/US20230024797A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present invention relates to a content selection device, a content display system, a content selection method, and a content selection program.
  • Patent Document 1 discloses a technique for displaying an advertisement according to the movement of a pedestrian on a display device.
  • this technique for example, an advertisement having contents corresponding to the walking speed and attributes of a pedestrian is displayed on a display device.
  • an object of the present invention is to provide a content selection device, a content display system, a content selection method, and a content selection program capable of making the content displayed on the display device easily noticeable to pedestrians.
  • the content selection device detects an image acquisition unit that acquires an image captured by an image pickup device that images a pedestrian, and a person included in the image. It has a person detection unit and a selection unit for selecting content to be displayed on the display device according to the attributes of a person who walks slowly among the people detected by the person detection unit.
  • the content display system includes an imaging unit that images a pedestrian, an image acquisition unit that acquires an image captured by the imaging unit, and a person detection unit that detects a person included in the image.
  • the content to be displayed includes a selection unit that selects content according to the attributes of a person who walks slowly among the people detected by the person detection unit, and a display unit that displays the selected content.
  • the content selection method acquires an image captured by an imaging device that images a pedestrian, detects a person included in the image, and detects the person as content to be displayed on the display device. Of these, select content according to the attributes of people who walk slowly.
  • the content selection program displays on a computer an image acquisition step of acquiring an image captured by an imaging device that images a pedestrian, a person detection step of detecting a person included in the image, and a display.
  • the selection step of selecting the content according to the attribute of the person who walks slowly among the people detected by the person detection step is executed.
  • the content displayed on the display device can be easily noticed by pedestrians.
  • FIG. 1 The drawings show the X-axis, Y-axis, and Z-axis that are orthogonal to each other as needed.
  • the X-axis, Y-axis, and Z-axis are common to all drawings.
  • the direction in which the arrow extends is referred to as "positive direction”
  • the direction opposite to the positive direction is referred to as "negative direction”.
  • FIG. 1 is a diagram showing an example of a configuration of a content display system according to each embodiment.
  • the content display system 1 includes an image pickup device 10, a content selection device 20, a server device 30, a content management device 40, and a display device 50.
  • Each device of the content display system 1 is connected to each other so as to be able to send and receive information via the network NW.
  • WAN wide area network
  • the content selection device 20 and the server device 30 are connected, and the server device 30 and the content management device 40 are connected by a wide area network (WAN).
  • WAN is realized by, for example, an internet connection.
  • a local area network (Local Area Network:). It is connected by LAN).
  • the LAN may be realized by a wired connection, or may be realized by a wireless connection such as Bluetooth (registered trademark) or Wi-Fi (registered trademark).
  • the image pickup device 10 is an example of the "imaging unit” of the content display system 1.
  • the display device 50 is an example of a “display unit” included in the content display system 1.
  • the image pickup device 10 is a device that acquires an image (hereinafter, also referred to as "captured image") obtained by capturing an image of a pedestrian 2 (2a, 2b, 2c).
  • the image pickup device 10 is, for example, a camera.
  • the image pickup device 10 transmits the captured image to the content selection device 20 via the network NW.
  • the pedestrians imaged by the imaging device 10 are not limited to the three pedestrians 2a to 2c.
  • the image pickup device 10 may image an arbitrary number of pedestrians.
  • the pedestrian 2 is a person who walks in an arbitrary direction and at an arbitrary speed.
  • the pedestrian 2a is walking in the positive direction of the X-axis at a walking speed va1 .
  • the pedestrian 2b is walking in the positive direction of the X-axis at a walking speed v b1 .
  • the pedestrian 2c is walking in the positive direction of the X-axis at a walking speed v c1 .
  • the content selection device 20 is a terminal that selects the content to be displayed on the display device 50.
  • the content selection device 20 selects the content to be displayed on the display device 50 based on the captured image received from the image pickup device 10.
  • the content selection device 20 transmits the content selection result to the content management device 40 via the network NW.
  • the content is, for example, an image (still image / moving image) showing an advertisement.
  • the process performed by the content selection device 20 may be performed by the server device 30.
  • a person's attribute is associated with the content as a selection condition for selecting the content.
  • a person's attributes are information that indicates the characteristics of the person. Examples of human attributes include gender, age group, occupation, clothing, belongings, and the like.
  • Content is associated with at least one person's attributes.
  • the content selection device 20 detects a person's attribute based on the captured image, and selects the content to which the detected attribute is associated as a selection condition as the content to be displayed on the display device 50. When a plurality of human attributes are detected, the content selection device 20 causes the display device 50 to display content in which at least one of the detected attributes is associated as a selection condition. Select as.
  • information in which a person's attributes and contents are associated with each other is also referred to as "related information”.
  • the server device 30 is a device that performs processing related to various conditions and contents. For example, the server device 30 generates information such as various conditions, human attributes, and related information used in the content selection device 20. The server device 30 transmits the generated information to the content selection device 20 and stores it. The server device 30 may update the information stored in the content selection device 20.
  • the various conditions include, for example, selection conditions, priority conditions, and selection conditions.
  • the selection condition is a condition for specifying which of the plurality of priority conditions is to be used.
  • the priority condition is a condition for selecting which of the plurality of contents is to be preferentially displayed on the display device 50. In the priority condition, for example, an attribute (selection condition) for preferentially selecting the content is defined.
  • the server device 30 generates the content managed by the content management device 40.
  • the server device 30 transmits the generated content to the content management device 40 and stores it.
  • the server device 30 may update the content stored in the content management device 40.
  • the content management device 40 is a device that manages the content to be displayed on the display device 50.
  • the content management device 40 stores the content received from the server device 30. Further, for example, the content management device 40 reproduces the content to be displayed on the display device 50 based on the selection result received from the content selection device 20.
  • the content management device 40 transmits a video signal of the content being played back to the display device 50.
  • the process performed by the content management device 40 may be performed by the server device 30.
  • the display device 50 is a device that displays the content on the display screen 52 based on the video signal received from the content management device 40.
  • the display device 50 is, for example, digital signage, and displays content indicating an advertisement.
  • the display screen 52 is, for example, a liquid crystal display, a plasma display, an organic EL (Organic Electro-Luminescence) display, or the like.
  • the digital signage may be realized by a device that displays the content by projecting the content from the projector onto the screen.
  • FIG. 2 is a block diagram showing an example of the functional configuration of the content selection device according to the first embodiment.
  • the content selection device 20-1 includes a selection condition input unit 210-1, a communication unit 220-1, a control unit 230-1, and a storage unit 240-1.
  • Selection condition input unit 210-1 specifies which of a plurality of priority conditions is to be used based on the selection conditions input by the user (for example, the system administrator).
  • the selection condition is input by, for example, the operation of an input device such as a keyboard, mouse, or microphone (hereinafter, also referred to as "microphone") by the user.
  • the selection condition input unit 210-1 specifies that the priority condition indicated by the selection condition input to the user is used for content selection among the plurality of priority conditions.
  • the selection condition input unit 210-1 specifies that the priority condition directly specified by the user is used for content selection. Further, when the user inputs a plurality of selection conditions, the selection condition input unit 210-1 may specify the priority condition to be used for content selection based on the combination of the selection conditions.
  • the selection condition input unit 210-1 After specifying the priority condition, the selection condition input unit 210-1 inputs information indicating the designated priority condition to be used for content selection to the control unit 230-1.
  • the communication unit 220-1 transmits and receives various types of information. For example, the communication unit 220-1 transmits a control signal to the image pickup device 10 and receives the captured image from the image pickup device 10. The communication unit 220-1 inputs the received captured image to the control unit 230-1. Further, the communication unit 220-1 transmits the content input from the control unit 230-1 to the display device 50.
  • Control unit 230-1 controls the entire operation of the content selection device 20-1.
  • the control unit 230-1 is realized by causing a CPU (Central Processing Unit) provided as hardware in the content selection device 20-1 to execute a program.
  • the control unit 230-1 includes an image acquisition unit 231-1, a detection unit 233-1 and a selection unit 237-1.
  • the image acquisition unit 231-1 acquires an captured image captured by the imaging device 10. For example, the image acquisition unit 231-1 acquires an captured image transmitted from the imaging device 10 via the network NW. The image acquisition unit 231-1 inputs the acquired captured image to the detection unit 233-1.
  • the detection unit 233-1 performs various detection processes. As shown in FIG. 2, the detection unit 233-1 includes a person detection unit 233-1, an orientation detection unit 233-1, and a speed detection unit 23351.
  • the person detection unit 2331-1 detects a person included in the captured image. For example, the person detection unit 2331-1 detects a person included in the captured image by image recognition processing for the captured image input from the image acquisition unit 231-1. When a person is detected, the person detection unit 2331-1 further detects the attribute of the detected person by image recognition processing for the detected person.
  • the process in which the human detection unit 2331-1 detects a person and an attribute from a captured image is also referred to as a "human detection process" below.
  • the person detection unit 2331-1 When a person is detected by the person detection process, the person detection unit 2331-1 inputs the detection result to the orientation detection unit 2333-1 and the selection unit 237-1. On the other hand, when no person is detected by the person detection process, the person detection unit 2331-1 inputs the detection result to the selection unit 237-1.
  • the orientation detection unit 2333-1 detects the orientation of the person included in the captured image. For example, the orientation detection unit 2333-1 detects the moving direction of the person detected by the person detection unit 2331-1 by the image recognition process for the captured image input from the image acquisition unit 231-1. When the moving direction of a person is detected, the orientation detecting unit 2333-1 further detects a person whose moving direction is the direction corresponding to the direction of the display device 50. Further, the orientation detection unit 2333-1 may detect the orientation of the human face detected by the human detection unit 2331-1 by the image recognition process for the captured image input from the image acquisition unit 231-1.
  • the orientation detection unit 2333-1 When the orientation of a person's face is detected, the orientation detection unit 2333-1 further detects a person whose orientation of the detected face corresponds to the orientation of the display device 50.
  • the process of detecting a person whose movement direction corresponds to the direction of the display device 50 and a person whose face direction corresponds to the direction of the display device 50 from the captured image by the orientation detection unit 2333-1 is described below. , Also referred to as "direction detection processing".
  • the detected moving direction is the direction corresponding to the direction of the display device 50.
  • the detected moving direction is the direction corresponding to the direction of the display device 50.
  • the direction toward the display device 50 is the direction corresponding to the direction of the display device 50.
  • an example of a direction in which the detected direction of the human face corresponds to the direction of the display device 50 is shown.
  • the display device 50 is included in the field of view of the person based on the direction of the detected person's face
  • the direction of the detected person's face corresponds to the direction of the display device 50.
  • the direction of the detected person's face is facing the direction of the display device 50.
  • the direction detection unit 2333-1 When a person whose movement direction or face direction corresponds to the direction of the display device 50 is detected by the direction detection process, the direction detection unit 2333-1 outputs the detection results to the speed detection unit 2335-1 and the selection unit 237. Enter in -1. On the other hand, when the orientation detection process does not detect a person whose movement direction or face orientation corresponds to the direction of the display device 50, the orientation detection unit 233-1 inputs the detection result to the selection unit 237-1. do.
  • the detection result input by the orientation detection unit 2333-1 to each unit may include the detection result of the person detection unit 2331-1.
  • the speed detection unit 23351 detects the walking speed of a person included in the captured image. For example, the speed detection unit 23351 detects the walking speed of a person detected by the person detection unit 2331-1 by image recognition processing for the captured image input from the image acquisition unit 231-1. The speed detection unit 23351 may detect only the walking speed of a person who is facing the direction corresponding to the direction of the display device 50 detected by the direction detection unit 2333-1. The speed detection unit 23351 inputs the detection result to the selection unit 237-1. The detection result input by the speed detection unit 23351 to the selection unit 237-1 may include the detection results of the person detection unit 2331-1 and the orientation detection unit 233-1. The process of detecting the walking speed of a person from the captured image by the speed detection unit 23351 is also referred to as "speed detection process" below.
  • Selection unit 237-1 performs a process of selecting the content to be displayed on the display device 50 according to the attribute of the detected person (hereinafter, also referred to as “content selection process”).
  • the selection unit 237-1 causes the communication unit 220-1 to transmit the selection result to the content management device 40.
  • the selection unit 237-1 displays the content according to the attribute of any one of the people detected by the detection unit 233-1 based on the detection result input from the detection unit 233-1. Select as the content to be displayed in 50.
  • the selection unit 237-1 selects content according to the attributes of a person who walks slowly among the people detected by the person detection unit 2331-3. For example, the selection unit 237-1 walks relatively slowly among the people detected by the person detection unit 2331-1 based on the walking speed of the person indicated by the detection result input from the speed detection unit 233-1. Select content associated with a person's attributes. The person who is relatively slow is specifically the person who has the slowest walking speed among the people detected by the person detection unit 2331-1.
  • the selection unit 237-1 can exclude people who have a relatively high walking speed and are likely not to see the content displayed on the display device 50 from the content selection target. Therefore, the selection unit 237-1 can select the content suitable for the person who is more likely to see the content.
  • the selection unit 237-1 selects content for men, content for women, and the like according to gender.
  • the selection unit 237-1 selects content for children, content for adults, and the like according to the age.
  • the selection unit 237-1 selects content for office workers, content for housewives, and the like according to the profession.
  • the selection unit 237-1 selects the content according to the possessed item.
  • the selection unit 237-1 selects content for travelers.
  • the content selected by the selection unit 237-1 is content according to the attributes of the person who is approaching the display device 50 among the people detected by the person detection unit 2331-1. In this case, the selection unit 237-1 selects the content associated with the attribute of the person approaching the display device 50 based on the movement direction of the person indicated by the detection result input from the person detection unit 2331-1.
  • the selection unit 237-1 can exclude people who may not see the content, such as a person moving away from the display device 50, from the content selection target. Therefore, the selection unit 237-1 can select the content suitable for the person who is more likely to see the content.
  • the selection unit 237-1 selects content associated with the attributes of a person who is relatively slow walking and who is approaching the display device 50 among the people detected by the person detection unit 2331-1. ..
  • the content selected by the selection unit 237-1 may be content according to the attributes of the person who is facing the display device 50 among the people detected by the person detection unit 2331-1. In this case, the selection unit 237-1 selects the content associated with the attribute of the person facing the display device 50 based on the orientation of the person's face indicated by the detection result input from the person detection unit 2331-1. Select.
  • the selection unit 237-1 can select contents such as a person walking while looking down, a person walking while talking face-to-face with another person, a person walking while operating a smartphone, and the like. People who may not see it can be excluded from the selection of content. Therefore, the selection unit 237-1 can select the content suitable for the person who is more likely to see the content.
  • the selection unit 237-1 selects content associated with the attributes of a person who is relatively slow walking and who is facing the display device 50 among the people detected by the person detection unit 2331-1. Select.
  • the selection unit 237-1 may select the content based on the priority conditions. For example, the selection unit 237-1 selects content based on attributes (selection conditions) according to priority conditions.
  • the priority condition specifies in detail the attributes used to select the content. As a result, the selection unit 237-1 can select the content that matches the characteristics of the person with higher accuracy.
  • the attributes of people passing by near the place where the display device 50 is provided may differ depending on the day of the week and the time of day. Therefore, as an example of the priority condition, there is a condition in which a combination of at least one of the day of the week or the time zone in which the content is displayed and the attribute is defined.
  • the selection unit 237-1 selects the content based on the attribute according to the priority condition based on the priority condition. As a result, the selection unit 237-1 can select the content for people according to the day of the week and the time zone and display it on the display device 50.
  • the selection unit 237-1 can select the content for office workers during the commuting time and display it on the display device 50.
  • the selection unit 237-1 selects the content based on the attributes of the remaining people excluding the person to be excluded indicated by the priority condition. As a result, the selection unit 237-1 can select the content for people according to the place where the display device 50 is provided and display the content on the display device 50.
  • "clerk” is an example of an attribute that is excluded from the target of selecting content. Whether or not the attribute is a clerk is determined by, for example, face recognition or image recognition. In image recognition, for example, the clothes of a person, the presence or absence of a name plate, and the like are determined.
  • the selection unit 237-1 excludes the content according to the attribute of the clerk from the content selection target. As a result, the selection unit 237-1 can display the content for customers on the display device 50 in the store.
  • the selection unit 237-1 may perform the selection unit 237-1. Select pre-scheduled content.
  • the attributes used for content selection are defined based on the selection conditions input from the selection condition input unit 210-1.
  • the selection unit 237-1 selects the content using the attributes that satisfy the selection condition among the attributes of the detected person.
  • the storage unit 240-1 may be a storage medium, for example, an HDD (Hard Disk Drive), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a RAM (Random Access read / write Memory), a ROM (Read Only Memory), or a storage medium. It is composed of any combination of these storage media.
  • a non-volatile memory can be used for the storage unit 240-1.
  • the storage unit 240-1 stores various information.
  • the storage unit 240-1 stores selection conditions, priority conditions, selection conditions, human attributes, related information, and the like received from the server device 30. Further, the storage unit 240-1 may store the captured image acquired by the image acquisition unit 231-1.
  • FIG. 3 is a block diagram showing an example of the functional configuration of the content management device according to the first embodiment.
  • the content management device 40 includes a communication unit 410, a content reproduction unit 420, and a storage unit 430.
  • the communication unit 410 transmits and receives various types of information. For example, the communication unit 410 receives the content selection result from the content selection device 20-1 and inputs it to the content reproduction unit 420. Further, the communication unit 410 transmits the video signal of the content input from the content reproduction unit 420 to the display device 50.
  • the content reproduction unit 420 reproduces the content to be displayed on the display device 50.
  • the content reproduction unit 420 reproduces the content indicated by the selection result of the content input from the communication unit 410.
  • the content reproduction unit 420 reproduces the content stored in the storage unit 430.
  • the content playback unit 420 inputs the video signal of the content being played back to the communication unit 410.
  • the process of transmitting the video signal of the content being reproduced by the content reproduction unit 420 from the communication unit 410 to the display device 50 and causing the display device 50 to display the content is also referred to as "content display process" below.
  • the storage unit 430 is a storage medium such as an HDD (Hard Disk Drive), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a RAM (Random Access read / write Memory), a ROM (Read Only Memory), or a storage medium thereof. It is composed of any combination of storage media.
  • a non-volatile memory can be used for the storage unit 430.
  • the storage unit 430 stores various information.
  • the storage unit 430 stores the content received from the server device 30.
  • FIG. 4 is a flowchart showing an example of the processing flow in the content display system 1 according to the first embodiment.
  • the image acquisition unit 231-1 of the content selection device 20-1 acquires an captured image from the image pickup device 10 (S102).
  • the person detection unit 2331-1 of the content selection device 20-1 performs the person detection process (S104).
  • the person detection unit 2331-1 determines whether or not a person has been detected from the captured image (S106).
  • the selection unit 237-1 of the content selection device 20-1 selects the content scheduled in advance (S108). After selecting the content, the content selection device 20-1 performs the process of S120 described later.
  • the orientation detection unit 2333-1 of the content selection device 20-1 performs the orientation detection process (S110).
  • the orientation detection unit 2333-1 determines whether or not a person whose movement direction corresponds to the direction of the display device 50 has been detected (S112).
  • the selection unit 237-1 selects the content scheduled in advance (S108). After selecting the content, the content selection device 20-1 performs the process of S120 described later.
  • the speed detection unit 23351 of the content selection device 20-1 performs the speed detection process (S114). ).
  • the selection unit 237-1 of the content selection device 20-1 acquires the attribute of a person whose walking speed is relatively slow (S116).
  • the selection unit 237-1 After acquiring the attributes, the selection unit 237-1 performs the content selection process based on the acquired attributes (S118).
  • the content reproduction unit 420 of the content management device 40 performs the content display process (S120) and causes the display device 50 to display the content.
  • the content selection device 20-1 repeats the process from S102.
  • the content selection device 20-1 acquires an captured image captured by an imaging device that images a pedestrian.
  • the content selection device 20-1 detects a person included in the captured image. Then, the content selection device 20-1 selects the content corresponding to the attribute of the person who walks slowly among the detected people as the content to be displayed on the display device 50.
  • the content selection device 20-1 can select the content suitable for the person who is more likely to see the content among the detected people.
  • the content selection device 20-1 according to the first embodiment can make the content displayed on the display device 50 easily noticeable to pedestrians.
  • Second embodiment >> The first embodiment of the present invention has been described above. Subsequently, a second embodiment of the present invention will be described. In the first embodiment, an example of selecting content according to the attributes of a person whose walking speed is relatively slow has been described, but the present invention is not limited to such an example. In the second embodiment, an example of selecting content according to the attributes of a person who is relatively close to the display screen 52 of the display device 50 among those who have a relatively slow walking speed will be described. In the following, the description overlapping with the description in the first embodiment will be omitted as appropriate.
  • FIG. 5 is a block diagram showing an example of the functional configuration of the content selection device according to the second embodiment.
  • the content selection device 20-2 includes a selection condition input unit 210-2, a communication unit 220-2, a control unit 230-2, and a storage unit 240-2.
  • Selection condition input unit 210-2 The function of the selection condition input unit 210-2 is the same as the function of the selection condition input unit 210-1 according to the first embodiment described with reference to FIG.
  • Communication unit 220-2 The function of the communication unit 220-2 is the same as the function of the communication unit 220-2 according to the first embodiment described with reference to FIG.
  • Control unit 230-2 controls the entire operation of the content selection device 20-2.
  • the control unit 230-2 is realized by causing a CPU (Central Processing Unit) provided as hardware in the content selection device 20-2 to execute a program.
  • the control unit 230-2 includes an image acquisition unit 231-2, a detection unit 233-2, and a selection unit 237-2.
  • (3-1) Image acquisition unit 231-2 The function of the image acquisition unit 231-2 is the same as the function of the image acquisition unit 231-1 according to the first embodiment described with reference to FIG.
  • the detection unit 233-2 performs various detection processes. As shown in FIG. 5, the detection unit 233-2 includes a person detection unit 2331-2, an orientation detection unit 2333-2, a speed detection unit 2335-2, and a distance detection unit 2337-2.
  • Direction detection unit 2333-2 The function of the orientation detection unit 2333-2 is the same as the function of the orientation detection unit 2333-1 according to the first embodiment described with reference to FIG.
  • the distance detection unit 2337-2 detects the distance from the person included in the captured image to the display device 50.
  • the distance detection unit 2337-2 detects the distance from the person detected by the person detection unit 2331-2 to the display device 50 by image recognition processing for the captured image input from the image acquisition unit 231-2.
  • the distance detection unit 2337-2 may detect the distance from only the person who is facing the direction corresponding to the direction of the display device 50 detected by the orientation detection unit 2333-2 to the display device 50.
  • the distance detection unit 2337-2 inputs the detection result to the selection unit 237-2.
  • the process by which the distance detection unit 2337-2 detects the distance from the person included in the captured image to the display device 50 is also hereinafter referred to as “distance detection process”.
  • the distance detection unit 2337-2 may detect the distance from the person included in the captured image to the display screen 52 of the display device 50.
  • Selection unit 237-2 performs the content selection process in the same manner as the selection unit 237-1 according to the first embodiment described with reference to FIG.
  • the selection unit 237-2 further has a function of performing content selection processing based on the detection result of the distance detection unit 2337-2.
  • the content selected by the selection unit 237-2 based on the detection result of the distance detection unit 2337-2 is a person who is further close to the display device 50 among the people detected by the person detection unit 2331-2.
  • the selection unit 237-2 is associated with the attribute of the person who is close to the display device 50 based on the distance from the person indicated by the detection result input from the distance detection unit 2337-2 to the display device 50. Select content.
  • the selection unit 237-2 can exclude people who may not see the content, such as a person who is far from the display device 50, from the content selection target. Therefore, the selection unit 237-2 can select the content suitable for the person who is more likely to see the content.
  • the selection unit 237-2 is associated with the attributes of the person detected by the person detection unit 2331-2, who is relatively slow walking and who is relatively close to the display device 50. Select content.
  • the person who is relatively close to the display device 50 is specifically the person who is closest to the display device 50 among the people detected by the person detection unit 2331-2.
  • the selection unit 237-2 is based on the distance from the person indicated by the detection result input from the distance detection unit 2337-2 to the display screen 52 of the display device 50, and is set to the attribute of the person who is close to the display screen 52.
  • the associated content may be selected.
  • the selection unit 237-2 is associated with the attributes of the person detected by the person detection unit 2331-2, who is relatively slow walking and who is relatively close to the display screen 52. Select content.
  • the person who is relatively close to the display screen 52 is specifically the person who is closest to the display screen 52 among the people detected by the person detection unit 2331-2.
  • FIG. 6 is a diagram showing an example of the content selection process according to the second embodiment.
  • FIG. 6 shows an example in which content is selected based on the distance from each pedestrian 2 to the display screen 52 of the display device 50. It should be noted that the magnitude relationship between the distance L c2 of the distance L a2 from the pedestrian 2a to the display screen 52, the distance L b2 from the pedestrian 2b to the display screen 52, and from the pedestrian 2c until the display screen 52, L b2> L It is assumed that there is a relationship of a2 > L c2.
  • the pedestrian 2c is located at a position relatively close to the display screen 52 among the pedestrians according to the magnitude relationship of the distance La2 , the distance Lb2 , and the distance Lc2. Therefore, the selection unit 237-2 selects the content associated with the attribute of the pedestrian 2c located at a position relatively close to the display screen 52.
  • Storage unit 240-2 The function of the storage unit 240-2 is the same as the function of the storage unit 240-1 according to the first embodiment described with reference to FIG.
  • the configuration of the content management device according to the second embodiment is the same as the configuration of the content management device 40 described with reference to FIG.
  • FIG. 7 is a flowchart showing an example of the processing flow in the content display system 1 according to the second embodiment.
  • the image acquisition unit 231-2 of the content selection device 20-2 acquires an captured image from the image pickup device 10 (S202).
  • the person detection unit 2331-2 of the content selection device 20-2 performs the person detection process (S204).
  • the person detection unit 2331-2 determines whether or not a person has been detected from the captured image (S206).
  • the selection unit 237-2 of the content selection device 20-2 selects the content scheduled in advance (S208). After selecting the content, the content selection device 20-2 performs the process of S222 described later.
  • the orientation detection unit 2333-2 of the content selection device 20-2 performs the orientation detection process (S210).
  • the orientation detection unit 2333-2 determines whether or not a person whose movement direction corresponds to the direction of the display device 50 has been detected (S212).
  • the selection unit 237-2 selects the content scheduled in advance (S208). After selecting the content, the content selection device 20-2 performs the process of S222 described later.
  • the speed detection unit 2335-2 of the content selection device 20 performs the speed detection process (S214).
  • the distance detection unit 2337-2 of the content selection device 20-2 performs the distance detection process (S216).
  • the selection unit 237-2 of the content selection device 20-2 acquires the attribute of a person whose walking speed is relatively slow and is relatively close to the display device 50 (S218).
  • the selection unit 237-2 After acquiring the attributes, the selection unit 237-2 performs the content selection process based on the acquired attributes (S220).
  • the content reproduction unit 420 of the content management device 40 performs the content display process (S222), and causes the display device 50 to display the content.
  • the content selection device 20-2 repeats the process from S202.
  • the content selection device 20-2 acquires an captured image captured by an imaging device that images a pedestrian.
  • the content selection device 20-2 detects a person included in the captured image. Then, the content selection device 20-2 selects the content corresponding to the attribute of the person who walks slowly among the detected people as the content to be displayed on the display device.
  • the content selection device 20-2 can select the content suitable for the person who is more likely to see the content among the detected people.
  • the content selection device 20-2 according to the second embodiment further has a configuration in which the distance from the person included in the captured image to the display device 50 is detected and the content is selected based on the distance.
  • the selection unit 237-2 selects the content corresponding to the attribute of the person who is relatively close to the display device 50 among the detected people as the content to be displayed on the display device 50.
  • the content selection device 20-2 can select the content suitable for the person who is more likely to see the content among the detected people.
  • the content selection device 20-2 according to the second embodiment can make the content displayed on the display device easily noticeable to pedestrians.
  • FIG. 8 is a block diagram showing an example of the functional configuration of the content selection device according to the third embodiment.
  • the content selection device 20-3 includes a selection condition input unit 210-3, a communication unit 220-3, a control unit 230-3, and a storage unit 240-3.
  • Selection condition input unit 210-3 The function of the selection condition input unit 210-3 is the same as the function of the selection condition input unit 210-3 according to the first embodiment described with reference to FIG.
  • Communication unit 220-3 The function of the communication unit 220-3 is the same as the function of the communication unit 220-3 according to the first embodiment described with reference to FIG.
  • Control unit 230-3 controls the entire operation of the content selection device 20-3.
  • the control unit 230-3 is realized by causing a CPU (Central Processing Unit) provided as hardware in the content selection device 20-3 to execute a program.
  • the control unit 230-3 includes an image acquisition unit 231-3, a content information acquisition unit 232-3, a detection unit 233-3, and a selection unit 237-3.
  • Image acquisition unit 231-3 The function of the image acquisition unit 231-3 is the same as the function of the image acquisition unit 231-3 according to the first embodiment described with reference to FIG.
  • the content information acquisition unit 232-3 acquires information about the content. For example, the content information acquisition unit 232-3 acquires the reproduction status information indicating the reproduction status of the content displayed on the display device 50. As an example, the content information acquisition unit 232-3 acquires information indicating the elapsed status of the reproduction time of the content displayed on the display device 50 as the reproduction status information.
  • the elapsed state of the content playback time includes, for example, the content playback time and the content playback start time. Further, the elapsed state of the content reproduction time may include the elapsed time from the start of the content reproduction or the remaining reproduction time of the content.
  • the content information acquisition unit 232-3 inputs the acquired reproduction status information to the selection unit 237-3.
  • the detection unit 233-3 performs various detection processes. As shown in FIG. 8, the detection unit 233-3 includes a person detection unit 2331-3, an orientation detection unit 2333-3, a speed detection unit 2335-3, and a distance detection unit 2337-3.
  • Human detection unit 2331-2 The function of the person detection unit 2331-3 is the same as that of the person detection unit 2331-1 according to the first embodiment described with reference to FIG.
  • orientation detection unit 2333-3 The function of the orientation detection unit 2333-3 is the same as the function of the orientation detection unit 2333-1 according to the first embodiment described with reference to FIG.
  • Speed detector 2335-3 has the same function as the speed detection unit 2335-1 according to the first embodiment described with reference to FIG. The speed detection unit 2335-3 further inputs the detection result to the selection unit 237-3.
  • the distance detection unit 2337-3 detects the distance from the detected person to the display device 50 or the display screen 52, similarly to the distance detection unit 2337-2 according to the second embodiment described with reference to FIG. do.
  • the distance detection unit 2337-3 is a distance (hereinafter, also referred to as a distance) in which a person detected in an area to be imaged by the image pickup device 10 (hereinafter, also referred to as an “imaging area”) moves from the image pickup area to the display device 50 or the display screen 52. , Also referred to as "moving distance").
  • the distance detection unit 2337-3 detects the moving distance from the detection position where a person is detected in the imaging region to the reference position based on the display device 50 or the display screen 52, for example, based on the image recognition processing for the captured image. do.
  • the distance detection unit 2337-3 inputs the detected moving distance to the selection unit 237-3.
  • Selection unit 237-3 performs the content selection process in the same manner as the selection unit 237-1 according to the first embodiment described with reference to FIG.
  • the selection unit 237-3 further has a function of performing content selection processing based on the detection result of the distance detection unit 2337-3.
  • the content selected by the selection unit 237-3 based on the detection result of the distance detection unit 2337-3 ends the reproduction of the content displayed on the display device 50 when the selection unit 237-3 selects the content.
  • This is the content that is displayed after you do.
  • the content corresponds to the attribute of the person who is close to the display device 50 when the reproduction of the content displayed on the display device 50 is completed among the persons detected by the person detection unit 2331-3.
  • the selection unit 237-3 displays the detected person when the reproduction of the content displayed on the display device 50 is completed based on the movement distance, the reproduction status information, and the walking speed. Select the content associated with the attribute of the person who is close to 50.
  • the selection unit 237-3 can exclude people who may not see the content, such as a person who is far from the display device 50, from the content selection target. Therefore, the selection unit 237-3 can select the content suitable for the person who is more likely to see the content.
  • the selection unit 237-3 calculates the movement time required for the detected person to reach the reference position based on the walking speed and the movement distance.
  • the selection unit 237-3 acquires the remaining playback time of the content based on the playback status information.
  • the selection unit 237-3 acquires the remaining playback time of the content included in the playback status information.
  • the selection unit 237-3 calculates the remaining playback time of the content based on the information included in the playback status information. For example, the selection unit 237-3 calculates the remaining playback time of the content based on the current time, the playback time of the content included in the playback status information, and the playback start time of the content. Further, the selection unit 237-3 may calculate the remaining playback time of the content based on the playback time of the content included in the playback status information and the elapsed time from the start of the playback of the content.
  • the selection unit 237-3 compares the calculated travel time with the remaining playback time of the acquired content, and selects the content associated with the attribute of the person whose travel time and the remaining playback time of the content match. ..
  • a person whose travel time matches the remaining playback time of the content is, that is, a person who reaches the reference position at the end of the content being played.
  • the selection unit 237-3 selects the content scheduled in advance.
  • FIG. 9 is a diagram showing an example of the content selection process according to the third embodiment.
  • FIG. 9 shows an example in which content is selected based on the movement time for each pedestrian 2 to reach the reference position RP from the position where each pedestrian 2 is detected in the imaging region IA.
  • the reference position RP shown in FIG. 9 is based on the end of the display device 50 on the negative direction side of the X axis.
  • the selection unit 237-3 calculates the movement time required for each pedestrian 2 to reach the reference position based on the walking speed and the movement distance of each pedestrian 2.
  • the moving time t a pedestrian 2a is L a3 / v a3
  • travel time t b of the pedestrian 2b is L b3 / v b3
  • travel time t c of the pedestrian 2c is L c3 / v c3 .
  • the selection unit 237-3 acquires the remaining playback time of the content based on the playback status information.
  • the remaining playback time of the acquired content is t 0 .
  • the selection unit 237-3 compares the calculated travel time with the remaining playback time of the acquired content, and selects the content associated with the attribute of the person whose travel time matches the remaining playback time of the content. do. If travel time t a pedestrian 2a and the remaining reproduction time t 0 of the content matches, the selection unit 237-3, the selected content associated with the attribute of the pedestrian 2a. When the moving time t b of the pedestrian 2b and the remaining playback time t 0 of the content match, the selection unit 237-3 selects the content associated with the attribute of the pedestrian 2b. When the moving time t c of the pedestrian 2c and the remaining playback time t 0 of the content match, the selection unit 237-3 selects the content associated with the attribute of the pedestrian 2c.
  • Storage unit 240-3 The function of the storage unit 240-3 is the same as the function of the storage unit 240-1 according to the first embodiment described with reference to FIG.
  • FIG. 10 is a flowchart showing an example of a processing flow in the content display system 1 according to the third embodiment.
  • the image acquisition unit 231-3 of the content selection device 20-3 acquires an captured image from the image pickup device 10 (S302).
  • the person detection unit 2331-3 of the content selection device 20-3 performs the person detection process (S304).
  • the person detection unit 2331-3 determines whether or not a person has been detected from the captured image (S306).
  • the selection unit 237-3 of the content selection device 20-3 selects the content scheduled in advance (S308). After selecting the content, the content selection device 20-3 performs the process of S324 described later.
  • the orientation detection unit 2333-3 of the content selection device 20-3 performs the orientation detection process (S310).
  • the orientation detection unit 2333-3 determines whether or not a person whose movement direction corresponds to the direction of the display device 50 has been detected (S312).
  • the selection unit 237-3 selects the content scheduled in advance (S308). After selecting the content, the content selection device 20-3 performs the process of S324 described later.
  • the speed detection unit 2335-3 of the content selection device 20-3 performs the speed detection process (S314). ).
  • the distance detection unit 2337-3 of the content selection device 20-3 performs the distance detection process (S316).
  • the selection unit 237-3 of the content selection device 20-3 acquires the attribute of the person who reaches the reference position at the end of the content being played (S318).
  • the selection unit 237-3 determines whether or not the attribute has been acquired (S320).
  • the selection unit 237-3 selects the content scheduled in advance (S308). After selecting the content, the content selection device 20-3 performs the process of S324 described later.
  • the selection unit 237-3 performs the content selection process based on the acquired attribute (S322).
  • the content reproduction unit 420 of the content management device 40 performs the content display process (S324) and causes the display device 50 to display the content.
  • the content selection device 20-3 repeats the process from S302.
  • the content selection device 20-3 acquires an captured image captured by an imaging device that images a pedestrian.
  • the content selection device 20-3 detects a person included in the captured image. Then, the content selection device 20-3 selects the content corresponding to the attribute of the person who walks slowly among the detected people as the content to be displayed on the display device 50.
  • the content selection device 20-3 can select the content suitable for the person who is more likely to see the content among the detected people.
  • the content selection device 20-3 according to the third embodiment can make the content displayed on the display device 50 easily noticeable to pedestrians.
  • the content selection device 20-3 is set to a reference position at the end of the content being played based on the movement distance, the playback status information, and the walking speed among the detected people. It also has a configuration for selecting content according to the attributes of the person who reaches it.
  • the selection unit 237-3 displays the content selected according to the attribute of the person who reaches the reference position at the end of the currently playing content on the display device 50. Can be (reproduced).
  • the selection unit 237-3 can display (reproduce) the next content on the display device 50 so that the display (reproduction) of the content currently being reproduced is not interrupted in the middle.
  • FIG. 11 is a block diagram showing an example of the functional configuration of the content selection device according to the fourth embodiment of the present invention.
  • the content selection device 20-4 may include at least an image acquisition unit 231-4, a person detection unit 2331-4, and a selection unit 237-4.
  • the image acquisition unit 231-4 acquires an image captured by an imaging device that images a pedestrian.
  • the person detection unit 2331-4 detects a person included in the image acquired by the image acquisition unit 231-4.
  • the selection unit 237-4 selects, as the content to be displayed on the display device, the content according to the attribute of the person who walks slowly among the detected people.
  • the content selection device 20-4 can select the content suitable for the person who is more likely to see the content among the detected pedestrians.
  • the content selection device 20-4 according to the fourth embodiment can make the content displayed on the display device 50 easily noticeable to pedestrians.
  • the embodiments of the present invention have been described above.
  • all or a part of the functions of the content display system 1 in each of the above-described embodiments may be realized by a computer.
  • the program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed.
  • the term "computer system” as used herein includes hardware such as an OS and peripheral devices.
  • the "computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system.
  • a "computer-readable recording medium” is a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. It may also include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client in that case. Further, the above program may be for realizing a part of the above-mentioned functions, and may be further realized for realizing the above-mentioned functions in combination with a program already recorded in the computer system. It may be realized by using a programmable logic device such as FPGA (Field Programmable Gate Array).
  • FPGA Field Programmable Gate Array

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

歩行者を撮像する撮像装置によって撮像された画像を取得する画像取得部と、前記画像に含まれる人を検出する人検出部と、表示装置に表示するコンテンツとして、前記人検出部によって検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する選定部と、を有する、コンテンツ選定装置。

Description

コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム
 本発明は、コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラムに関する。
 従来、デジタルサイネージ等の表示装置におけるコンテンツの表示を制御するための技術が各種提案されている。
 例えば、下記特許文献1には、歩行者の動きに合わせた広告を表示装置に表示させる技術が開示されている。当該技術では、例えば、歩行者の歩行速度と属性に応じた内容の広告が表示装置に表示される。
日本国特開2017-123120号公報
 しかしながら、特許文献1の技術では、歩行速度が速い歩行者に対しても広告の表示を行うため、広告が歩行者の目に留まりにくい。例えば、表示装置に対して、歩行速度が速い歩行者の属性に合わせた広告が表示されているとする。歩行速度が速い歩行者は、急いでいるために表示された広告を見ない恐れがある。また、歩行速度が遅い歩行者は、表示された広告が自分の属性に合っていないために表示された広告を見ない恐れがある。
 上述の課題を鑑み、本発明の目的は、表示装置に表示するコンテンツを歩行者の目に留まりやすくすることが可能なコンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラムを提供することにある。
 上述の課題を解決するために、本発明の一態様に係るコンテンツ選定装置は、歩行者を撮像する撮像装置によって撮像された画像を取得する画像取得部と、前記画像に含まれる人を検出する人検出部と、表示装置に表示するコンテンツとして、前記人検出部によって検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する選定部と、を有する。
 本発明の一態様に係るコンテンツ表示システムは、歩行者を撮像する撮像部と、前記撮像部によって撮像された画像を取得する画像取得部と、前記画像に含まれる人を検出する人検出部と、表示するコンテンツとして、前記人検出部によって検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する選定部と、前記選定されたコンテンツを表示する表示部と、を有する。
 本発明の一態様に係るコンテンツ選定方法は、歩行者を撮像する撮像装置によって撮像された画像を取得し、前記画像に含まれる人を検出し、表示装置に表示するコンテンツとして、検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する。
 本発明の一態様に係るコンテンツ選定プログラムは、コンピュータに、歩行者を撮像する撮像装置によって撮像された画像を取得する画像取得ステップと、前記画像に含まれる人を検出する人検出ステップと、表示装置に表示するコンテンツとして、前記人検出ステップによって検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する選定ステップと、を実行させる。
 本発明によれば、表示装置に表示するコンテンツを歩行者の目に留まりやすくすることができる。
各実施形態に係るコンテンツ表示システムの構成の一例を示す図である。 第1の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。 第1の実施形態に係るコンテンツ管理装置の機能構成の一例を示すブロック図である。 第1の実施形態に係るコンテンツ表示システムにおける処理の流れの一例を示すフローチャートである。 第2の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。 第2の実施形態に係るコンテンツ選定処理の一例を示す図である。 第2の実施形態に係るコンテンツ表示システムにおける処理の流れの一例を示すフローチャートである。 第3の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。 第3の実施形態に係るコンテンツ選定処理の一例を示す図である。 第3の実施形態に係るコンテンツ表示システムにおける処理の流れの一例を示すフローチャートである。 第4の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。
 以下、図面を参照しながら本発明の各実施形態について詳しく説明する。図面には、必要に応じて相互に直交するX軸、Y軸、及びZ軸が示されている。X軸、Y軸、及びZ軸は全図において共通である。各軸において、矢印が延びる方向を「正方向」、正方向と逆の方向を「負方向」と称する。
<<1.第1の実施形態>>
 まず、本発明の第1の実施形態について説明する。
<1-1.コンテンツ表示システムの構成>
 図1を参照して、第1の実施形態に係るコンテンツ表示システムの構成の一例について説明する。図1は、各実施形態に係るコンテンツ表示システムの構成の一例を示す図である。図1に示すように、コンテンツ表示システム1は、撮像装置10、コンテンツ選定装置20、サーバ装置30、コンテンツ管理装置40、及び表示装置50を有する。
 コンテンツ表示システム1が有する各装置は、ネットワークNWを介して、互いに情報の送受信が可能に接続されている。
 例えば、コンテンツ選定装置20とサーバ装置30との間、サーバ装置30とコンテンツ管理装置40との間は、ワイドエリアネットワーク(Wide Area Network:WAN)によって接続されている。WANは、例えば、インターネット接続により実現される。
 また、例えば、撮像装置10とコンテンツ選定装置20との間、コンテンツ選定装置20とコンテンツ管理装置40との間、コンテンツ管理装置40と表示装置50との間は、ローカルエリアネットワーク(Local Area Network:LAN)によって接続されている。LANは、有線接続によって実現されてもよいし、Bluetooth(登録商標)、Wi-Fi(登録商標)等の無線接続によって実現されてもよい。
 なお、撮像装置10は、コンテンツ表示システム1が有する「撮像部」の一例である。表示装置50は、コンテンツ表示システム1が有する「表示部」の一例である。
 (1)撮像装置10
 撮像装置10は、歩行者2(2a、2b、2c)を撮像した画像(以下、「撮像画像」とも称される)を取得する装置である。撮像装置10は、例えば、カメラである。撮像装置10は、ネットワークNWを介して、撮像画像をコンテンツ選定装置20へ送信する。なお、撮像装置10が撮像する歩行者は、歩行者2a~歩行者2cの3人に限定されない。撮像装置10は、任意の人数の歩行者を撮像してよい。
 歩行者2は、任意の方向に任意の速度で歩行する人である。例えば、図1に示すように、歩行者2aは、X軸の正方向に歩行速度va1で歩行している。歩行者2bは、X軸の正方向に歩行速度vb1で歩行している。歩行者2cは、X軸の正方向に歩行速度vc1で歩行している。
 (2)コンテンツ選定装置20
 コンテンツ選定装置20は、表示装置50に表示させるコンテンツを選定する端末である。例えば、コンテンツ選定装置20は、撮像装置10から受信する撮像画像に基づき、表示装置50に表示させるコンテンツを選定する。コンテンツ選定装置20は、ネットワークNWを介して、コンテンツの選定結果をコンテンツ管理装置40へ送信する。ここで、コンテンツは、例えば、広告を示す画像(静止画/動画)である。なお、コンテンツ選定装置20で行われる処理は、サーバ装置30で行われてもよい。
 本実施形態では、コンテンツを選定するための選定条件として、コンテンツに対して、人の属性が関連付けられる。人の属性は、人の特徴を示す情報である。人の属性の一例として、性別、年齢層、職業、服装、所持品等が挙げられる。コンテンツには、少なくとも1つの人の属性が関連付けられる。コンテンツ選定装置20は、撮像画像に基づき人の属性を検出し、検出した属性が選定条件として関連付けられたコンテンツを、表示装置50に表示させるコンテンツとして選定する。なお、人の属性が複数検出された場合、コンテンツ選定装置20は、検出された複数の属性のうち、少なくともいずれか1つの属性が選定条件として関連付けられたコンテンツを、表示装置50に表示させるコンテンツとして選定する。以下、人の属性とコンテンツが関連付けられた情報は、「関連情報」とも称される。
 (3)サーバ装置30
 サーバ装置30は、各種条件及びコンテンツに関する処理を行う装置である。
 例えば、サーバ装置30は、コンテンツ選定装置20で用いられる各種条件、人の属性、及び関連情報等の情報を生成する。サーバ装置30は、生成した情報をコンテンツ選定装置20へ送信し、保存させる。サーバ装置30は、コンテンツ選定装置20に保存された情報を更新してもよい。
 各種条件には、例えば、選択条件、優先条件、及び選定条件が含まれる。
 選択条件は、複数ある優先条件のうちいずれの優先条件を用いるかを指定するための条件である。
 優先条件は、複数あるコンテンツのうち、いずれのコンテンツを優先して表示装置50に表示させるかを選定するための条件である。優先条件には、例えば、コンテンツを優先して選定する属性(選定条件)が定められている。
 また、例えば、サーバ装置30は、コンテンツ管理装置40で管理されるコンテンツを生成する。サーバ装置30は、生成したコンテンツをコンテンツ管理装置40へ送信し、保存させる。サーバ装置30は、コンテンツ管理装置40に保存されたコンテンツを更新してもよい。
 (4)コンテンツ管理装置40
 コンテンツ管理装置40は、表示装置50に表示させるコンテンツの管理を行う装置である。例えば、コンテンツ管理装置40は、サーバ装置30から受信するコンテンツを保存する。また、例えば、コンテンツ管理装置40は、コンテンツ選定装置20から受信する選定結果に基づき、表示装置50に表示させるコンテンツを再生する。コンテンツ管理装置40は、再生しているコンテンツの映像信号を表示装置50へ送信する。なお、コンテンツ管理装置40で行われる処理は、サーバ装置30で行われてもよい。
 (5)表示装置50
 表示装置50は、コンテンツ管理装置40から受信する映像信号に基づき、コンテンツを表示画面52に表示する装置である。表示装置50は、例えば、デジタルサイネージであり、広告を示すコンテンツを表示する。表示画面52は、例えば、液晶ディスプレイ、プラズマディスプレイ、有機EL(Organic Electro-Luminescence)ディスプレイ等のいずれかである。また、デジタルサイネージは、プロジェクタからスクリーンにコンテンツを投影することでコンテンツの表示を行う装置によって実現されてもよい。
<1-2.コンテンツ選定装置の機能構成>
 以上、第1の実施形態に係るコンテンツ表示システム1の構成の一例について説明した。続いて、図2を参照して、第1の実施形態に係るコンテンツ選定装置の機能構成の一例について説明する。図2は、第1の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。図2に示すように、コンテンツ選定装置20-1は、選択条件入力部210-1、通信部220-1、制御部230-1、及び、記憶部240-1を備える。
 (1)選択条件入力部210-1
 選択条件入力部210-1は、ユーザ(例えばシステム管理者)が入力する選択条件に基づき、複数ある優先条件のうちいずれの優先条件を用いるかを指定する。
 選択条件は、例えば、ユーザによるキーボード、マウス、マイクロフォン(以下、「マイク」とも称される)等の入力装置の操作によって入力される。選択条件入力部210-1は、複数ある優先条件のうち、ユーザに入力された選択条件が示す優先条件をコンテンツの選定に用いると指定する。
 例えば、ユーザが優先条件を直接指定する選択条件を入力した場合、選択条件入力部210-1は、ユーザが直接指定した優先条件をコンテンツの選定に用いると指定する。また、ユーザが複数の選択条件を入力した場合、選択条件入力部210-1は、選択条件の組み合わせに基づき、コンテンツの選定に用いる優先条件を指定してもよい。
 優先条件の指定後、選択条件入力部210-1は、コンテンツの選定に用いると指定した優先条件を示す情報を制御部230-1へ入力する。
 (2)通信部220-1
 通信部220-1は、各種情報の送受信を行う。例えば、通信部220-1は、撮像装置10へ制御信号を送信し、撮像装置10から撮像画像を受信する。通信部220-1は、受信した撮像画像を制御部230-1へ入力する。また、通信部220-1は、制御部230-1から入力されるコンテンツを表示装置50へ送信する。
 (3)制御部230-1
 制御部230-1は、コンテンツ選定装置20-1の動作全体を制御する。制御部230-1は、コンテンツ選定装置20-1がハードウェアとして備えるCPU(Central Processing Unit)にプログラムを実行させることによって実現される。図2に示すように、制御部230-1は、画像取得部231-1、検出部233-1、及び選定部237-1を備える。
 (3-1)画像取得部231-1
 画像取得部231-1は、撮像装置10によって撮像された撮像画像を取得する。例えば、画像取得部231-1は、ネットワークNWを介して、撮像装置10から送信される撮像画像を取得する。画像取得部231-1は、取得した撮像画像を検出部233-1へ入力する。
 (3-2)検出部233-1
 検出部233-1は、各種検出処理を行う。図2に示すように、検出部233-1は、人検出部2331-1、向き検出部2333-1、及び速度検出部2335-1を備える。
 (3-2-1)人検出部2331-1
 人検出部2331-1は、撮像画像に含まれる人を検出する。例えば、人検出部2331-1は、画像取得部231-1から入力される撮像画像に対する画像認識処理によって、撮像画像に含まれる人を検出する。人を検出した場合、人検出部2331-1は、検出した人に対する画像認識処理によって、検出した人の属性をさらに検出する。
 人検出部2331-1が撮像画像から人及び属性を検出する処理は、以下では、「人検出処理」とも称される。
 人検出処理によって人を検出した場合、人検出部2331-1は、検出結果を向き検出部2333-1及び選定部237-1へ入力する。一方、人検出処理によって人を検出しなかった場合、人検出部2331-1は、検出結果を選定部237-1へ入力する。
 (3-2-2)向き検出部2333-1
 向き検出部2333-1は、撮像画像に含まれる人に関する向きの検出を行う。例えば、向き検出部2333-1は、画像取得部231-1から入力される撮像画像に対する画像認識処理によって、人検出部2331-1が検出した人の移動方向を検出する。人の移動方向を検出した場合、向き検出部2333-1は、検出した移動方向が表示装置50の方向と対応する方向である人をさらに検出する。また、向き検出部2333-1は、画像取得部231-1から入力される撮像画像に対する画像認識処理によって、人検出部2331-1が検出した人の顔の向きを検出してもよい。人の顔の向きを検出した場合、向き検出部2333-1は、検出した顔の向きが表示装置50の方向と対応する方向である人をさらに検出する。
 向き検出部2333-1が撮像画像から移動方向が表示装置50の方向と対応する方向である人、顔の向きが表示装置50の方向と対応する方向である人を検出する処理は、以下では、「向き検出処理」とも称される。
 ここで、検出された移動方向が表示装置50の方向と対応する方向の一例を示す。例えば、人の視野に表示装置50が含まれる場合、検出された移動方向は、表示装置50の方向と対応する方向である。また、例えば、表示装置50に向かう方向である場合、検出された移動方向は、表示装置50の方向と対応する方向である。
 また、検出された人の顔の向きが表示装置50の方向と対応する方向の一例を示す。例えば、検出された人の顔の向きを基準とした当該人の視野に表示装置50が含まれる場合、検出された人の顔の向きは、表示装置50の方向と対応する方向である。また、検出された人の顔の向きが表示装置50の方向を向いている場合、検出された人の顔の向きは、表示装置50の方向と対応する方向である。
 向き検出処理によって、移動方向または顔の向きが表示装置50の方向と対応する方向である人を検出した場合、向き検出部2333-1は、検出結果を速度検出部2335-1及び選定部237-1へ入力する。一方、向き検出処理によって移動方向または顔の向きが表示装置50の方向と対応する方向である人を検出しなかった場合、向き検出部2333-1は、検出結果を選定部237-1へ入力する。なお、向き検出部2333-1が各部へ入力する検出結果には、人検出部2331-1の検出結果が含まれてもよい。
 (3-2-3)速度検出部2335-1
 速度検出部2335-1は、撮像画像に含まれる人の歩行速度を検出する。例えば、速度検出部2335-1は、画像取得部231-1から入力される撮像画像に対する画像認識処理によって、人検出部2331-1が検出した人の歩行速度を検出する。なお、速度検出部2335-1は、向き検出部2333-1が検出した表示装置50の方向と対応する方向を向いている人の歩行速度のみを検出してもよい。速度検出部2335-1は、検出結果を選定部237-1へ入力する。なお、速度検出部2335-1が選定部237-1へ入力する検出結果には、人検出部2331-1及び向き検出部2333-1の検出結果が含まれてもよい。
 速度検出部2335-1が撮像画像から人の歩行速度を検出する処理は、以下では、「速度検出処理」とも称される。
 (3-3)選定部237-1
 選定部237-1は、検出された人の属性に応じた、表示装置50に表示させるコンテンツを選定する処理(以下、「コンテンツ選定処理」とも称される)を行う。選定部237-1は、選定結果を通信部220-1からコンテンツ管理装置40へ送信させる。
 例えば、選定部237-1は、検出部233-1から入力される検出結果に基づき、検出部233-1に検出された人のうちのいずれかの人の属性に応じたコンテンツを、表示装置50に表示するコンテンツとして選定する。
 一例として、選定部237-1は、人検出部2331-3によって検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する。例えば、選定部237-1は、速度検出部2335-1から入力される検出結果が示す人の歩行速度に基づき、人検出部2331-1に検出された人のうち、相対的に歩行の遅い人の属性に関連付けられたコンテンツを選定する。相対的に遅い人は、具体的に、人検出部2331-1に検出された人の中で歩行速度が最も遅い人である。
 これにより、選定部237-1は、歩行速度が相対的に速くて表示装置50に表示されたコンテンツを見ない可能性が高い人をコンテンツの選定対象から除外することができる。
 よって、選定部237-1は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 ここで、属性とコンテンツの関係の一例を示す。
 例えば、属性として性別が検出された場合、選定部237-1は、性別に応じて男性向けのコンテンツや女性向けのコンテンツ等を選定する。
 また、属性として年齢が検出された場合、選定部237-1は、年齢に応じて子供向けのコンテンツや大人向けのコンテンツ等を選定する。
 また、属性として職業が検出された場合、選定部237-1は、職業に応じて会社員向けのコンテンツや主婦向けのコンテンツ等を選定する。
 また、属性として所持品が検出された場合、選定部237-1は、所持品に応じたコンテンツを選定する。所持品の一例としてキャリーバッグが検出された場合、選定部237-1は、旅行者向けのコンテンツを選定する。
 なお、選定部237-1が選定するコンテンツは、人検出部2331-1によって検出された人のうち、さらに、表示装置50へ近づいている人の属性に応じたコンテンツである。この場合、選定部237-1は、人検出部2331-1から入力される検出結果が示す人の移動方向に基づき、表示装置50へ近づいている人の属性に関連付けられたコンテンツを選定する。
 これにより、選定部237-1は、例えば、表示装置50から離れる方向へ移動している人等のコンテンツを見ない可能性がある人をコンテンツの選定対象から除外することができる。
 よって、選定部237-1は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 一例として、選定部237-1は、人検出部2331-1によって検出された人のうち、相対的に歩行の遅い人かつ表示装置50へ近づいている人の属性に関連付けられたコンテンツを選定する。
 選定部237-1が選定するコンテンツは、人検出部2331-1によって検出された人のうち、さらに、表示装置50に顔を向けている人の属性に応じたコンテンツであってもよい。この場合、選定部237-1は、人検出部2331-1から入力される検出結果が示す人の顔の向きに基づき、表示装置50に顔を向けている人の属性に関連付けられたコンテンツを選定する。
 これにより、選定部237-1は、例えば、下を見ながら歩いている人、他の人と顔を合わせて会話しながら歩いている人、スマートフォンを操作しながら歩いている人等のコンテンツを見ない可能性がある人をコンテンツの選定対象から除外することができる。
 よって、選定部237-1は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 一例として、選定部237-1は、人検出部2331-1によって検出された人のうち、相対的に歩行の遅い人かつ表示装置50に顔を向けている人の属性に関連付けられたコンテンツを選定する。
 選定部237-1は、優先条件に基づき、コンテンツを選定してもよい。例えば、選定部237-1は、優先条件に応じた属性(選定条件)に基づくコンテンツを選定する。優先条件により、コンテンツの選定に用いる属性が詳細に指定される。これにより、選定部237-1は、人の特徴に合ったコンテンツをより精度高く選定することができる。
 表示装置50が設けられた場所付近を通行する人の属性は、曜日や時間帯によって異なり得る。そこで、優先条件の一例として、コンテンツを表示する曜日または時間帯のうち少なくともいずれか1つと属性との組み合わせが定められた条件が挙げられる。選定部237-1は、当該優先条件に基づいて、当該優先条件に応じた属性に基づくコンテンツを選定する。これにより、選定部237-1は、曜日や時間帯に応じた人向けのコンテンツを選定し、表示装置50に表示させることができる。
 曜日または時間帯のうち少なくともいずれか1つと属性との組み合わせの一例として、「通勤」の時間帯と「会社員」の属性の組み合わせが挙げられる。この場合、選定部237-1は、通勤の時間帯に会社員向けのコンテンツを選定して表示装置50に表示させることができる。
 また、店舗等では、店員向けのコンテンツが表示されないことが望ましい。そこで、優先条件の他の一例として、コンテンツを選定する対象から除外する属性が定められた条件が挙げられる。選定部237-1は、当該優先条件に基づいて、当該優先条件によって示される除外対象の人を除外した残りの人の属性に基づいてコンテンツを選定する。これにより、選定部237-1は、表示装置50が設けられた場所に応じた人向けのコンテンツを選定し、表示装置50に表示させることができる。
 例えば、店舗において、コンテンツを選定する対象から除外する属性の一例として、「店員」が挙げられる。属性が店員であるか否かは、例えば、顔認証や、画像認識により判定される。画像認識では、例えば、人の服装やネームプレートの有無等が判定される。店員が除外対象である場合、選定部237-1は、店員の属性に応じたコンテンツを、コンテンツの選定対象から除外する。これにより、選定部237-1は、店舗において客向けのコンテンツを表示装置50に表示させることができる。
 なお、人検出処理にて人が検出されなかった場合、または向き検出処理にて移動方向が表示装置50の方向と対応する方向である人が検出されなかった場合、選定部237-1は、予めスケジュールされたコンテンツを選定する。
 ここで、再度、図1を参照して、第1の実施形態における相対的に歩行の遅い人の一例について説明する。なお、歩行者2aの歩行速度va1、歩行者2bの歩行速度vb1、及び歩行者2cの歩行速度vc1の大小関係は、vc1>vb1>va1の関係にあるとする。この場合、他の歩行者と比較して歩行速度が最も遅い歩行者2aが相対的に歩行の遅い人である。
 なお、選択条件入力部210-1から入力された選択条件に基づき、コンテンツの選定に用いられる属性が定められているとする。この場合、選定部237-1は、検出された人の属性のうち、選択条件を満たす属性を用いてコンテンツを選定する。
 (4)記憶部240-1
 記憶部240-1は、記憶媒体、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access read/write Memory)、ROM(Read Only Memory)、またはこれらの記憶媒体の任意の組み合わせによって構成される。記憶部240-1は、例えば、不揮発性メモリを用いることができる。
 記憶部240-1は、各種情報を記憶する。例えば、記憶部240-1は、サーバ装置30から受信する選択条件、優先条件、選定条件、人の属性、関連情報等を記憶する。また、記憶部240-1は、画像取得部231-1が取得した撮像画像を記憶してもよい。
<1-3.コンテンツ管理装置の機能構成>
 以上、第1の実施形態に係るコンテンツ選定装置20-1の構成の一例について説明した。続いて、図3を参照して、第1の実施形態に係るコンテンツ管理装置の機能構成の一例について説明する。図3は、第1の実施形態に係るコンテンツ管理装置の機能構成の一例を示すブロック図である。図3に示すように、コンテンツ管理装置40は、通信部410、コンテンツ再生部420、及び記憶部430を備える。
 (1)通信部410
 通信部410は、各種情報の送受信を行う。例えば、通信部410は、コンテンツ選定装置20-1からコンテンツの選定結果を受信し、コンテンツ再生部420へ入力する。また、通信部410は、コンテンツ再生部420から入力されるコンテンツの映像信号を、表示装置50へ送信する。
 (2)コンテンツ再生部420
 コンテンツ再生部420は、表示装置50に表示させるコンテンツを再生する。例えば、コンテンツ再生部420は、通信部410から入力されるコンテンツの選定結果が示すコンテンツを再生する。コンテンツ再生部420は、記憶部430に記憶されたコンテンツを再生する。再生後、コンテンツ再生部420は、再生しているコンテンツの映像信号を通信部410へ入力する。コンテンツ再生部420が再生しているコンテンツの映像信号を通信部410から表示装置50へ送信させ、表示装置50にコンテンツを表示させる処理は、以下では、「コンテンツ表示処理」とも称される。
 (3)記憶部430
 記憶部430は、記憶媒体、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access read/write Memory)、ROM(Read Only Memory)、またはこれらの記憶媒体の任意の組み合わせによって構成される。記憶部430は、例えば、不揮発性メモリを用いることができる。
 記憶部430は、各種情報を記憶する。例えば、記憶部430は、サーバ装置30から受信するコンテンツを記憶する。
<1-4.処理の流れ>
 以上、第1の実施形態に係るコンテンツ管理装置40の機能構成の一例について説明した。続いて、図4を参照して、第1の実施形態に係るコンテンツ表示システム1における処理の流れの一例について説明する。図4は、第1の実施形態に係るコンテンツ表示システム1における処理の流れの一例を示すフローチャートである。
 図4に示すように、まず、コンテンツ選定装置20-1の画像取得部231-1は、撮像装置10から撮像画像を取得する(S102)。
 次いで、コンテンツ選定装置20-1の人検出部2331-1は、人検出処理を行う(S104)。
 人検出処理後、人検出部2331-1は、撮像画像から人が検出されたか否かを判定する(S106)。
 撮像画像から人が検出されなかった場合(S106/NO)、コンテンツ選定装置20-1の選定部237-1は、予めスケジュールされたコンテンツを選定する(S108)。コンテンツの選定後、コンテンツ選定装置20-1は、後述するS120の処理を行う。
 一方、撮像画像から人が検出された場合(S106/YES)、コンテンツ選定装置20-1の向き検出部2333-1は、向き検出処理を行う(S110)。
 向き検出処理後、向き検出部2333-1は、移動方向が表示装置50の方向と対応する方向である人が検出されたか否かを判定する(S112)。
 移動方向が表示装置50の方向と対応する方向である人が検出されなかった場合(S112/NO)、選定部237-1は、予めスケジュールされたコンテンツを選定する(S108)。コンテンツの選定後、コンテンツ選定装置20-1は、後述するS120の処理を行う。
 一方、移動方向が表示装置50の方向と対応する方向である人が検出された場合(S112/YES)、コンテンツ選定装置20-1の速度検出部2335-1は、速度検出処理を行う(S114)。
 速度検出処理後、コンテンツ選定装置20-1の選定部237-1は、歩行速度が相対的に遅い人の属性を取得する(S116)。
 属性取得後、選定部237-1は、取得した属性に基づき、コンテンツ選定処理を行う(S118)。
 コンテンツ選定処理後、コンテンツ管理装置40のコンテンツ再生部420は、コンテンツ表示処理を行い(S120)、表示装置50にコンテンツを表示させる。
 コンテンツ表示処理後、コンテンツ選定装置20-1は、S102から処理を繰り返す。
 以上説明したように、第1の実施形態に係るコンテンツ選定装置20-1は、歩行者を撮像する撮像装置によって撮像された撮像画像を取得する。コンテンツ選定装置20-1は、撮像画像に含まれる人を検出する。そして、コンテンツ選定装置20-1は、検出された人のうち、歩行の遅い人の属性に応じたコンテンツを表示装置50に表示するコンテンツとして選定する。
 かかる構成により、第1の実施形態に係るコンテンツ選定装置20-1は、検出された人のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 よって、第1の実施形態に係るコンテンツ選定装置20-1は、表示装置50に表示するコンテンツを歩行者の目に留まりやすくすることができる。
<<2.第2の実施形態>>
 以上、本発明の第1の実施形態について説明した。続いて、本発明の第2の実施形態について説明する。第1の実施形態では、歩行速度が相対的に遅い人の属性に応じたコンテンツを選定する例について説明したが、かかる例に限定されない。第2の実施形態では、歩行速度が相対的に遅い人のうち、表示装置50の表示画面52に相対的に近い位置にいる人の属性に応じたコンテンツを選定する例について説明する。なお、以下では、第1の実施形態における説明と重複する説明については、適宜、省略される。
<2-1.コンテンツ表示システムの構成>
 第2の実施形態に係るコンテンツ表示システムの構成は、図1を参照して説明したコンテンツ表示システム1の構成と同一である。
<2-2.コンテンツ選定装置の機能構成>
 続いて、図5を参照して、第2の実施形態に係るコンテンツ選定装置の機能構成の一例について説明する。図5は、第2の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。図5に示すように、コンテンツ選定装置20-2は、選択条件入力部210-2、通信部220-2、制御部230-2、及び記憶部240-2を備える。
 (1)選択条件入力部210-2
 選択条件入力部210-2の機能は、図2を参照して説明した第1の実施形態に係る選択条件入力部210-1の機能と同一である。
 (2)通信部220-2
 通信部220-2の機能は、図2を参照して説明した第1の実施形態に係る通信部220-2の機能と同一である。
 (3)制御部230-2
 制御部230-2は、コンテンツ選定装置20-2の動作全体を制御する。制御部230-2は、コンテンツ選定装置20-2がハードウェアとして備えるCPU(Central Processing Unit)にプログラムを実行させることによって実現される。図5に示すように、制御部230-2は、画像取得部231-2、検出部233-2、及び選定部237-2を備える。
 (3-1)画像取得部231-2
 画像取得部231-2の機能は、図2を参照して説明した第1の実施形態に係る画像取得部231-1の機能と同一である。
 (3-2)検出部233-2
 検出部233-2は、各種検出処理を行う。図5に示すように、検出部233-2は、人検出部2331-2、向き検出部2333-2、速度検出部2335-2、及び距離検出部2337-2を備える。
 (3-2-1)人検出部2331-2
 人検出部2331-2の機能は、図2を参照して説明した第1の実施形態に係る人検出部2331-1の機能と同一である。
 (3-2-2)向き検出部2333-2
 向き検出部2333-2の機能は、図2を参照して説明した第1の実施形態に係る向き検出部2333-1の機能と同一である。
 (3-2-3)速度検出部2335-2
 速度検出部2335-2の機能は、図2を参照して説明した第1の実施形態に係る速度検出部2335-1の機能と同一である。
 (3-2-4)距離検出部2337-2
 距離検出部2337-2は、撮像画像に含まれる人から表示装置50までの距離を検出する。例えば、距離検出部2337-2は、画像取得部231-2から入力される撮像画像に対する画像認識処理によって、人検出部2331-2が検出した人から表示装置50までの距離を検出する。なお、距離検出部2337-2は、向き検出部2333-2が検出した表示装置50の方向と対応する方向を向いている人のみから表示装置50までの距離を検出してもよい。距離検出部2337-2は、検出結果を選定部237-2へ入力する。
 距離検出部2337-2が撮像画像に含まれる人から表示装置50までの距離を検出する処理は、以下では、「距離検出処理」とも称される。なお、距離検出部2337-2は、撮像画像に含まれる人から表示装置50の表示画面52までの距離を検出してもよい。
 (3-3)選定部237-2
 選定部237-2は、図2を参照して説明した第1の実施形態に係る選定部237-1と同様にコンテンツ選定処理を行う。選定部237-2は、距離検出部2337-2の検出結果に基づき、コンテンツ選定処理を行う機能をさらに有する。
 例えば、距離検出部2337-2の検出結果に基づき選定部237-2が選定するコンテンツは、人検出部2331-2によって検出された人のうち、さらに、表示装置50に近い位置にいる人の属性に応じたコンテンツである。この場合、選定部237-2は、距離検出部2337-2から入力される検出結果が示す人から表示装置50までの距離に基づき、表示装置50に近い位置にいる人の属性に関連付けられたコンテンツを選定する。
 これにより、選定部237-2は、例えば、表示装置50から遠い位置にいる人等のコンテンツを見ない可能性がある人をコンテンツの選定対象から除外することができる。
 よって、選定部237-2は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 一例として、選定部237-2は、人検出部2331-2によって検出された人のうち、相対的に歩行の遅い人かつ表示装置50に相対的に近い位置にいる人の属性に関連付けられたコンテンツを選定する。なお、表示装置50に相対的に近い位置にいる人は、具体的に、人検出部2331-2に検出された人の中で表示装置50に最も近い位置にいる人である。
 なお、選定部237-2は、距離検出部2337-2から入力される検出結果が示す人から表示装置50の表示画面52までの距離に基づき、表示画面52に近い位置にいる人の属性に関連付けられたコンテンツを選定してもよい。
 一例として、選定部237-2は、人検出部2331-2によって検出された人のうち、相対的に歩行の遅い人かつ表示画面52に相対的に近い位置にいる人の属性に関連付けられたコンテンツを選定する。なお、表示画面52に相対的に近い位置にいる人は、具体的に、人検出部2331-2に検出された人の中で表示画面52に最も近い位置にいる人である。
 ここで、図6を参照して、第2の実施形態におけるコンテンツ選定処理の一例について説明する。図6は、第2の実施形態に係るコンテンツ選定処理の一例を示す図である。図6には、各歩行者2から表示装置50の表示画面52までの距離に基づき、コンテンツが選定される例が示されている。なお、歩行者2aから表示画面52までの距離La2、歩行者2bから表示画面52までの距離Lb2、及び歩行者2cから表示画面52までの距離Lc2の大小関係は、Lb2>La2>Lc2の関係にあるとする。
 図6に示す例では、距離La2、距離Lb2、及び距離Lc2の大小関係より、各歩行者のうち、歩行者2cが表示画面52に相対的に近い位置にいる。よって、選定部237-2は、表示画面52に相対的に近い位置にいる歩行者2cの属性に関連付けられたコンテンツを選定する。
 (4)記憶部240-2
 記憶部240-2の機能は、図2を参照して説明した第1の実施形態に係る記憶部240-1の機能と同一である。
<2-3.コンテンツ管理装置の機能構成>
 第2の実施形態に係るコンテンツ管理装置の構成は、図3を参照して説明したコンテンツ管理装置40の構成と同一である。
<2-4.処理の流れ>
 以上、第2の実施形態に係るコンテンツ選定装置20-2の機能構成の一例について説明した。続いて、図7を参照して、第2の実施形態に係るコンテンツ表示システム1における処理の流れの一例について説明する。図7は、第2の実施形態に係るコンテンツ表示システム1における処理の流れの一例を示すフローチャートである。
 図7に示すように、まず、コンテンツ選定装置20-2の画像取得部231-2は、撮像装置10から撮像画像を取得する(S202)。
 次いで、コンテンツ選定装置20-2の人検出部2331-2は、人検出処理を行う(S204)。
 人検出処理後、人検出部2331-2は、撮像画像から人が検出されたか否かを判定する(S206)。
 撮像画像から人が検出されなかった場合(S206/NO)、コンテンツ選定装置20-2の選定部237-2は、予めスケジュールされたコンテンツを選定する(S208)。コンテンツの選定後、コンテンツ選定装置20-2は、後述するS222の処理を行う。
 一方、撮像画像から人が検出された場合(S206/YES)、コンテンツ選定装置20-2の向き検出部2333-2は、向き検出処理を行う(S210)。
 向き検出処理後、向き検出部2333-2は、移動方向が表示装置50の方向と対応する方向である人が検出されたか否かを判定する(S212)。
 移動方向が表示装置50の方向と対応する方向である人が検出されなかった場合(S212/NO)、選定部237-2は、予めスケジュールされたコンテンツを選定する(S208)。コンテンツの選定後、コンテンツ選定装置20-2は、後述するS222の処理を行う。
 一方、移動方向が表示装置50の方向と対応する方向である人が検出された場合(S212/YES)、コンテンツ選定装置20の速度検出部2335-2は、速度検出処理を行う(S214)。
 速度検出処理後、コンテンツ選定装置20-2の距離検出部2337-2は、距離検出処理を行う(S216)。
 距離検出処理後、コンテンツ選定装置20-2の選定部237-2は、歩行速度が相対的に遅く、表示装置50に相対的に近い位置にいる人の属性を取得する(S218)。
 属性取得後、選定部237-2は、取得した属性に基づき、コンテンツ選定処理を行う(S220)。
 コンテンツ選定処理後、コンテンツ管理装置40のコンテンツ再生部420は、コンテンツ表示処理を行い(S222)、表示装置50にコンテンツを表示させる。
 コンテンツ表示処理後、コンテンツ選定装置20-2は、S202から処理を繰り返す。
 以上説明したように、第2の実施形態に係るコンテンツ選定装置20-2は、歩行者を撮像する撮像装置によって撮像された撮像画像を取得する。コンテンツ選定装置20-2は、撮像画像に含まれる人を検出する。そして、コンテンツ選定装置20-2は、検出された人のうち、歩行の遅い人の属性に応じたコンテンツを表示装置に表示するコンテンツとして選定する。
 かかる構成により、第2の実施形態に係るコンテンツ選定装置20-2は、検出された人のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 また、第2の実施形態に係るコンテンツ選定装置20-2は、撮像画像に含まれる人から表示装置50までの距離を検出し、当該距離に基づきコンテンツを選定する構成をさらに有する。
 かかる構成により、選定部237-2は、検出された人のうち、表示装置50に相対的に近い位置にいる人の属性に応じたコンテンツを表示装置50に表示するコンテンツとして選定する。これにより、コンテンツ選定装置20-2は、検出された人のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 よって、第2の実施形態に係るコンテンツ選定装置20-2は、表示装置に表示するコンテンツを歩行者の目に留まりやすくすることができる。
<<3.第3の実施形態>>
 以上、本発明の第2の実施形態について説明した。続いて、本発明の第3の実施形態について説明する。第2の実施形態では、歩行速度が相対的に遅い人のうち、表示装置50の表示画面52に相対的に近い位置にいる人の属性に応じたコンテンツを選定する例について説明したが、かかる例に限定されない。第3の実施形態では、再生中のコンテンツの終了時点に基準位置へ到達する人の属性に応じたコンテンツを選定する例について説明する。なお、以下では、第1の実施形態及び第2の実施形態における説明と重複する説明については、適宜、省略される。
<3-1.コンテンツ表示システムの構成>
 第3の実施形態に係るコンテンツ表示システムの構成は、図1を参照して説明したコンテンツ表示システム1の構成と同一である。
<3-2.コンテンツ選定装置の機能構成>
 続いて、図8を参照して、第3の実施形態に係るコンテンツ選定装置の機能構成の一例について説明する。図8は、第3の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。図8に示すように、コンテンツ選定装置20-3は、選択条件入力部210-3、通信部220-3、制御部230-3、及び記憶部240-3を備える。
 (1)選択条件入力部210-3
 選択条件入力部210-3の機能は、図2を参照して説明した第1の実施形態に係る選択条件入力部210-3の機能と同一である。
 (2)通信部220-3
 通信部220-3の機能は、図2を参照して説明した第1の実施形態に係る通信部220-3の機能と同一である。
 (3)制御部230-3
 制御部230-3は、コンテンツ選定装置20-3の動作全体を制御する。制御部230-3は、コンテンツ選定装置20-3がハードウェアとして備えるCPU(Central Processing Unit)にプログラムを実行させることによって実現される。図8に示すように、制御部230-3は、画像取得部231-3、コンテンツ情報取得部232-3、検出部233-3、及び選定部237-3を備える。
 (3-1)画像取得部231-3
 画像取得部231-3の機能は、図2を参照して説明した第1の実施形態に係る画像取得部231-3の機能と同一である。
 (3-2)コンテンツ情報取得部232-3
 コンテンツ情報取得部232-3は、コンテンツに関する情報を取得する。例えば、コンテンツ情報取得部232-3は、表示装置50に表示されているコンテンツの再生状況を示す再生状況情報を取得する。一例として、コンテンツ情報取得部232-3は、表示装置50に表示されたコンテンツの再生時間の経過状況を示す情報を再生状況情報として取得する。
 コンテンツの再生時間の経過状況は、例えば、コンテンツの再生時間、コンテンツの再生開始時刻を含む。また、コンテンツの再生時間の経過状況は、コンテンツの再生が開始されてからの経過時間、あるいはコンテンツの残りの再生時間を含んでもよい。コンテンツ情報取得部232-3は、取得した再生状況情報を選定部237-3へ入力する。
 (3-3)検出部233-3
 検出部233-3は、各種検出処理を行う。図8に示すように、検出部233-3は、人検出部2331-3、向き検出部2333-3、速度検出部2335-3、及び距離検出部2337-3を備える。
 (3-3-1)人検出部2331-2
 人検出部2331-3の機能は、図2を参照して説明した第1の実施形態に係る人検出部2331-1と同一である。
 (3-3-2)向き検出部2333-3
 向き検出部2333-3の機能は、図2を参照して説明した第1の実施形態に係る向き検出部2333-1の機能と同一である。
 (3-3-3)速度検出部2335-3
 速度検出部2335-3は、図2を参照して説明した第1の実施形態に係る速度検出部2335-1と同様の機能を有する。速度検出部2335-3は、検出結果を選定部237-3へさらに入力する。
 (3-3-4)距離検出部2337-3
 距離検出部2337-3は、図5を参照して説明した第2の実施形態に係る距離検出部2337-2と同様に、検出された人から表示装置50または表示画面52までの距離を検出する。距離検出部2337-3は、撮像装置10が撮像する領域(以下、「撮像領域」とも称される)にて検出された人が撮像領域から表示装置50または表示画面52まで移動する距離(以下、「移動距離」とも称される)を検出する機能をさらに有する。
 距離検出部2337-3は、例えば、撮像画像に対する画像認識処理に基づき、撮像領域にて人が検出された検出位置から表示装置50または表示画面52を基準とした基準位置までの移動距離を検出する。距離検出部2337-3は、検出した移動距離を選定部237-3へ入力する。
 (3-4)選定部237-3
 選定部237-3は、図2を参照して説明した第1の実施形態に係る選定部237-1と同様にコンテンツ選定処理を行う。選定部237-3は、距離検出部2337-3の検出結果に基づき、コンテンツ選定処理を行う機能をさらに有する。
 例えば、距離検出部2337-3の検出結果に基づき選定部237-3が選定するコンテンツは、選定部237-3がコンテンツを選定する際に、表示装置50に表示されているコンテンツの再生が終了した後に表示されるコンテンツである。さらに、当該コンテンツは、人検出部2331-3によって検出された人のうち、表示装置50に表示されているコンテンツの再生が終了する際に、表示装置50に近い位置にいる人の属性に応じたコンテンツである。この場合、選定部237-3は、検出された人のうち、移動距離と、再生状況情報と、歩行速度とに基づき、表示装置50に表示されているコンテンツの再生が終了する際に表示装置50に近い位置にいる人の属性に関連付けられたコンテンツを選定する。
 これにより、選定部237-3は、例えば、表示装置50から遠い位置にいる人等のコンテンツを見ない可能性がある人をコンテンツの選定対象から除外することができる。
 よって、選定部237-3は、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 より具体的に、まず、選定部237-3は、歩行速度と移動距離とに基づき、検出された人が基準位置に到達するまでにかかる移動時間を算出する。
 次いで、選定部237-3は、再生状況情報に基づき、コンテンツの残りの再生時間を取得する。再生状況情報にコンテンツの残りの再生時間が含まれている場合、選定部237-3は、再生状況情報に含まれているコンテンツの残りの再生時間を取得する。
 一方、再生状況情報にコンテンツの残りの再生時間が含まれていない場合、選定部237-3は、再生状況情報に含まれている情報に基づき、コンテンツの残りの再生時間を算出する。
 例えば、選定部237-3は、現在の時刻と、再生状況情報に含まれるコンテンツの再生時間及びコンテンツの再生開始時刻に基づき、コンテンツの残りの再生時間を算出する。
 また、選定部237-3は、再生状況情報に含まれるコンテンツの再生時間及びコンテンツの再生が開始されてからの経過時間に基づき、コンテンツの残りの再生時間を算出してもよい。
 選定部237-3は、算出した移動時間と、取得したコンテンツの残りの再生時間とを比較し、移動時間とコンテンツの残りの再生時間とが一致する人の属性に関連付けられたコンテンツを選定する。移動時間とコンテンツの残りの再生時間とが一致する人は、即ち、再生中のコンテンツの終了時点において基準位置に到達する人である。
 なお、再生中のコンテンツの終了時点において基準位置に到達する人が存在しない場合、選定部237-3は、予めスケジュールされたコンテンツを選定する。
 ここで、図9を参照して、第3の実施形態におけるコンテンツ選定処理の一例について説明する。図9は、第3の実施形態に係るコンテンツ選定処理の一例を示す図である。図9には、撮像領域IAにて各歩行者2が検出された位置から基準位置RPに到達する移動時間に基づき、コンテンツが選定される例が示されている。なお、図9に示す基準位置RPは、X軸の負方向側にある表示装置50の端部が基準となっている。
 まず、選定部237-3は、各歩行者2の歩行速度と移動距離とに基づき、各歩行者2が基準位置に到達するまでにかかる移動時間を算出する。図9に示す例の場合、歩行者2aの移動時間tはLa3/va3、歩行者2bの移動時間tはLb3/vb3、歩行者2cの移動時間tはLc3/vc3である。
 次いで、選定部237-3は、再生状況情報に基づき、コンテンツの残りの再生時間を取得する。図9に示す例では、取得されるコンテンツの残りの再生時間がtであるとする。
 次いで、選定部237-3は、算出した移動時間と取得したコンテンツの残りの再生時間とを比較し、移動時間とコンテンツの残りの再生時間とが一致する人の属性に関連付けられたコンテンツを選定する。歩行者2aの移動時間tとコンテンツの残りの再生時間tとが一致した場合、選定部237-3は、歩行者2aの属性に関連付けられたコンテンツを選定する。
 歩行者2bの移動時間tとコンテンツの残りの再生時間tとが一致した場合、選定部237-3は、歩行者2bの属性に関連付けられたコンテンツを選定する。
 歩行者2cの移動時間tとコンテンツの残りの再生時間tとが一致した場合、選定部237-3は、歩行者2cの属性に関連付けられたコンテンツを選定する。
 (4)記憶部240-3
 記憶部240-3の機能は、図2を参照して説明した第1の実施形態に係る記憶部240-1の機能と同一である。
<3-3.コンテンツ管理装置の機能構成>
 第3の実施形態に係るコンテンツ管理装置の構成は、図3を参照して説明したコンテンツ管理装置40の構成と同一である。
<3-4.処理の流れ>
 以上、第3の実施形態に係るコンテンツ選定装置20-3の機能構成の一例について説明した。続いて、図10を参照して、第3の実施形態に係るコンテンツ表示システム1における処理の流れの一例について説明する。図10は、第3の実施形態に係るコンテンツ表示システム1における処理の流れの一例を示すフローチャートである。
 図10に示すように、まず、コンテンツ選定装置20-3の画像取得部231-3は、撮像装置10から撮像画像を取得する(S302)。
 次いで、コンテンツ選定装置20-3の人検出部2331-3は、人検出処理を行う(S304)。
 人検出処理後、人検出部2331-3は、撮像画像から人が検出されたか否かを判定する(S306)。
 撮像画像から人が検出されなかった場合(S306/NO)、コンテンツ選定装置20-3の選定部237-3は、予めスケジュールされたコンテンツを選定する(S308)。コンテンツの選定後、コンテンツ選定装置20-3は、後述するS324の処理を行う。
 一方、撮像画像から人が検出された場合(S306/YES)、コンテンツ選定装置20-3の向き検出部2333-3は、向き検出処理を行う(S310)。
 向き検出処理後、向き検出部2333-3は、移動方向が表示装置50の方向と対応する方向である人が検出されたか否かを判定する(S312)。
 移動方向が表示装置50の方向と対応する方向である人が検出されなかった場合(S312/NO)、選定部237-3は、予めスケジュールされたコンテンツを選定する(S308)。コンテンツの選定後、コンテンツ選定装置20-3は、後述するS324の処理を行う。
 一方、移動方向が表示装置50の方向と対応する方向である人が検出された場合(S312/YES)、コンテンツ選定装置20-3の速度検出部2335-3は、速度検出処理を行う(S314)。
 速度検出処理後、コンテンツ選定装置20-3の距離検出部2337-3は、距離検出処理を行う(S316)。
 距離検出処理後、コンテンツ選定装置20-3の選定部237-3は、再生中のコンテンツの終了時点に基準位置へ到達する人の属性を取得する(S318)。
 属性取得処理後、選定部237-3は、属性を取得できたか否かを判定する(S320)。
 属性を取得できなかった場合(S320/NO)、選定部237-3は、予めスケジュールされたコンテンツを選定する(S308)。コンテンツの選定後、コンテンツ選定装置20-3は、後述するS324の処理を行う。
 一方、属性を取得できた場合(S320/YES)、選定部237-3は、取得した属性に基づき、コンテンツ選定処理を行う(S322)。
 コンテンツ選定処理後、コンテンツ管理装置40のコンテンツ再生部420は、コンテンツ表示処理を行い(S324)、表示装置50にコンテンツを表示させる。
 コンテンツ表示処理後、コンテンツ選定装置20-3は、S302から処理を繰り返す。
 以上説明したように、第3の実施形態に係るコンテンツ選定装置20-3は、歩行者を撮像する撮像装置によって撮像された撮像画像を取得する。コンテンツ選定装置20-3は、撮像画像に含まれる人を検出する。そして、コンテンツ選定装置20-3は、検出された人のうち、歩行の遅い人の属性に応じたコンテンツを表示装置50に表示するコンテンツとして選定する。
 かかる構成により、第3の実施形態に係るコンテンツ選定装置20-3は、検出された人のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 よって、第3の実施形態に係るコンテンツ選定装置20-3は、表示装置50に表示するコンテンツを歩行者の目に留まりやすくすることができる。
 また、第3の実施形態に係るコンテンツ選定装置20-3は、検出された人のうち、移動距離と、再生状況情報と、歩行速度とに基づき、再生中のコンテンツの終了時点において基準位置に到達する人の属性に応じたコンテンツを選定する構成をさらに有する。
 かかる構成により、選定部237-3は、現在再生中のコンテンツの再生が終了したら、再生中のコンテンツの終了時点において基準位置に到達する人の属性に応じて選定したコンテンツを表示装置50に表示(再生)させることができる。
 よって、選定部237-3は、現在再生中のコンテンツの表示(再生)が途中で途切れないように、次のコンテンツを表示装置50に表示(再生)させることができる。
<<4.第4の実施形態>>
 以上、本発明の第3の実施形態について説明した。続いて、図11を参照して、本発明の第4の実施形態について説明する。図11は、本発明の第4の実施形態に係るコンテンツ選定装置の機能構成の一例を示すブロック図である。
 図11に示すように、第4の実施形態に係るコンテンツ選定装置20-4は、少なくとも画像取得部231-4、人検出部2331-4、及び選定部237-4を備えていればよい。
 画像取得部231-4は、歩行者を撮像する撮像装置によって撮像された画像を取得する。
 人検出部2331-4は、画像取得部231-4が取得した画像に含まれる人を検出する。
 選定部237-4は、表示装置に表示するコンテンツとして、検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する。
 かかる構成により、第4の実施形態に係るコンテンツ選定装置20-4は、検出された歩行者のうち、コンテンツを見る可能性がより高い人に合わせたコンテンツを選定することができる。
 よって、第4の実施形態に係るコンテンツ選定装置20-4は、表示装置50に表示するコンテンツを歩行者の目に留まりやすくすることができる。
 以上、本発明の各実施形態について説明した。なお、上述した各実施形態におけるコンテンツ表示システム1の全部または一部の機能をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
 以上、図面を参照してこの発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 1 コンテンツ表示システム
 2 歩行者
 10 撮像装置
 20-1、20-2、20-3、20-4 コンテンツ選定装置
 30 サーバ装置
 40 コンテンツ管理装置
 50 表示装置
 52 表示画面
 210-1、210-2、210-3 選択条件入力部
 220-1、220-2、220-3 通信部
 230-1、230-2、230-3 制御部
 231-1、231-2、231-3、231-4 画像取得部
 232-3 コンテンツ情報取得部
 233-1、233-2、233-3 検出部
 237-1、237-2、237-3、237-4 選定部
 240-1、240-2、240-3 記憶部
 410 通信部
 420 コンテンツ再生部
 430 記憶部
 2331-1、2331-2、2331-3、2331-4 人検出部
 2333-1、2333-2、2333-3 向き検出部
 2335-1、2335-2、2335-3 速度検出部
 2337-2、2337-3 距離検出部

Claims (13)

  1.  歩行者を撮像する撮像装置によって撮像された画像を取得する画像取得部と、
     前記画像に含まれる人を検出する人検出部と、
     表示装置に表示するコンテンツとして、前記人検出部によって検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する選定部と、
     を有する、コンテンツ選定装置。
  2.  前記選定部が選定する前記コンテンツは、前記人検出部によって検出された人のうち、さらに、前記表示装置へ近づいている人の属性に応じたコンテンツである、
     請求項1に記載のコンテンツ選定装置。
  3.  前記選定部が選定する前記コンテンツは、前記人検出部によって検出された人のうち、さらに、前記表示装置に近い位置にいる人の属性に応じたコンテンツである、
     請求項1または請求項2に記載のコンテンツ選定装置。
  4.  前記選定部が選定する前記コンテンツは、前記選定部が選定する際に前記表示装置に表示されているコンテンツの再生が終了した後に表示するコンテンツであって、
     前記人検出部によって検出された人のうち、さらに、前記表示装置に表示されているコンテンツの再生が終了する際に、前記表示装置に近い位置にいる人の属性に応じたコンテンツである、
     請求項3に記載のコンテンツ選定装置。
  5.  前記選定部が選定する前記コンテンツは、前記人検出部によって検出された人のうち、さらに、前記表示装置に顔を向けている人の属性に応じたコンテンツである、
     請求項1から請求項4のいずれか1項に記載のコンテンツ選定装置。
  6.  前記選定部は、コンテンツを優先して選定する属性が条件として定められた優先条件に基づいて、前記歩行の遅い人の属性のうち当該優先条件に応じた属性に基づくコンテンツを選定する、
     請求項1から請求項5のいずれか1項に記載のコンテンツ選定装置。
  7.  前記選定部は、コンテンツを表示する曜日または時間帯のうち少なくともいずれか1つと属性との組み合わせが定められた優先条件に基づいて、当該優先条件に応じた属性に基づくコンテンツを選定する、
     請求項6に記載のコンテンツ選定装置。
  8.  前記選定部は、コンテンツを選定する対象から除外する属性が定められた優先条件に基づいて、当該優先条件によって示される除外対象の人を除外した残りの人の属性に基づいてコンテンツを選定する、
     請求項6に記載のコンテンツ選定装置。
  9.  前記選定部は、前記歩行が相対的に最も遅い人の属性に応じたコンテンツを選定する、
     請求項1に記載のコンテンツ選定装置。
  10.  複数ある優先条件のうちいずれの優先条件を用いるかを指定する選択条件入力部を有し、
     前記選定部は、前記選択条件入力部から入力される選択条件を満たす属性から前記コンテンツを選定する、
     請求項6から請求項9のいずれか1項に記載のコンテンツ選定装置。
  11.  歩行者を撮像する撮像部と、
     前記撮像部によって撮像された画像を取得する画像取得部と、
     前記画像に含まれる人を検出する人検出部と、
     表示するコンテンツとして、前記人検出部によって検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する選定部と、
     前記選定されたコンテンツを表示する表示部と、
     を有する、コンテンツ表示システム。
  12.  歩行者を撮像する撮像装置によって撮像された画像を取得し、
     前記画像に含まれる人を検出し、
     表示装置に表示するコンテンツとして、検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する、
     コンテンツ選定方法。
  13.  コンピュータに、
     歩行者を撮像する撮像装置によって撮像された画像を取得する画像取得ステップと、
     前記画像に含まれる人を検出する人検出ステップと、
     表示装置に表示するコンテンツとして、前記人検出ステップによって検出された人のうち、歩行の遅い人の属性に応じたコンテンツを選定する選定ステップと、
     を実行させるためのコンテンツ選定プログラム。
PCT/JP2020/018322 2020-04-30 2020-04-30 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム WO2021220487A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2020/018322 WO2021220487A1 (ja) 2020-04-30 2020-04-30 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム
PCT/JP2021/017076 WO2021221126A1 (ja) 2020-04-30 2021-04-28 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム
JP2022518132A JP7389240B2 (ja) 2020-04-30 2021-04-28 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム
CN202180029025.2A CN115427937A (zh) 2020-04-30 2021-04-28 内容选定装置、内容显示系统、内容选定方法以及内容选定程序
US17/960,402 US20230024797A1 (en) 2020-04-30 2022-10-05 Content selection device, content display system, and content selection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/018322 WO2021220487A1 (ja) 2020-04-30 2020-04-30 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム

Publications (1)

Publication Number Publication Date
WO2021220487A1 true WO2021220487A1 (ja) 2021-11-04

Family

ID=78331874

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2020/018322 WO2021220487A1 (ja) 2020-04-30 2020-04-30 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム
PCT/JP2021/017076 WO2021221126A1 (ja) 2020-04-30 2021-04-28 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/017076 WO2021221126A1 (ja) 2020-04-30 2021-04-28 コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム

Country Status (4)

Country Link
US (1) US20230024797A1 (ja)
JP (1) JP7389240B2 (ja)
CN (1) CN115427937A (ja)
WO (2) WO2021220487A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016156887A (ja) * 2015-02-23 2016-09-01 株式会社Nvc 電子機器及びその表示制御方法
JP2017111286A (ja) * 2015-12-16 2017-06-22 株式会社東芝 情報表示方法および情報表示システム
JP2017123120A (ja) * 2016-01-08 2017-07-13 日本ユニシス株式会社 広告評価装置、広告評価システム、広告評価方法、および、広告評価プログラム
JP2018156195A (ja) * 2017-03-15 2018-10-04 株式会社Nttファシリティーズ サイネージシステム、制御方法、及びプログラム
JP2020052486A (ja) * 2018-09-25 2020-04-02 トヨタ自動車株式会社 情報システム、情報処理方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016156887A (ja) * 2015-02-23 2016-09-01 株式会社Nvc 電子機器及びその表示制御方法
JP2017111286A (ja) * 2015-12-16 2017-06-22 株式会社東芝 情報表示方法および情報表示システム
JP2017123120A (ja) * 2016-01-08 2017-07-13 日本ユニシス株式会社 広告評価装置、広告評価システム、広告評価方法、および、広告評価プログラム
JP2018156195A (ja) * 2017-03-15 2018-10-04 株式会社Nttファシリティーズ サイネージシステム、制御方法、及びプログラム
JP2020052486A (ja) * 2018-09-25 2020-04-02 トヨタ自動車株式会社 情報システム、情報処理方法およびプログラム

Also Published As

Publication number Publication date
WO2021221126A1 (ja) 2021-11-04
JPWO2021221126A1 (ja) 2021-11-04
CN115427937A (zh) 2022-12-02
US20230024797A1 (en) 2023-01-26
JP7389240B2 (ja) 2023-11-29

Similar Documents

Publication Publication Date Title
CN109600659A (zh) 播放视频时的操作方法、装置、设备及存储介质
JP5643543B2 (ja) 情報提示システム及びその制御方法、プログラム
WO2015196584A1 (zh) 一种智能录制系统
KR20180072833A (ko) 공유된 관심사를 갖는 메시지들의 갤러리
CN106024009A (zh) 音频处理方法及装置
CN105611413A (zh) 一种添加视频段类别标记的方法和装置
CN103760968A (zh) 数字标牌显示内容选择方法和装置
JP2013200793A (ja) 情報処理装置、情報処理方法およびプログラム
JP5605725B2 (ja) 情報報知システム、情報報知方法、情報処理装置及びその制御方法と制御プログラム
JP2012042507A (ja) 映像表示装置
WO2021103610A1 (zh) 展示对象的控制方法与装置、电子设备及存储介质
CN106293837A (zh) 打开界面的方法及装置
CN106096011A (zh) 照片分享方法及装置
CN106649582A (zh) 推荐方法及装置
JP6048475B2 (ja) コンテンツ出力装置及びプログラム
CN108040280A (zh) 内容项目显示方法及装置、存储介质
WO2021220487A1 (ja) コンテンツ選定装置、コンテンツ表示システム、コンテンツ選定方法、及びコンテンツ選定プログラム
JP4110323B2 (ja) 情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体
KR101840597B1 (ko) 복수의 사용자들이 모이기 위한 장소를 추천하는 어플리케이션의 동작 방법
US11257116B2 (en) Method and apparatus for providing advertisement content and recording medium
JP2014206837A (ja) 電子機器、その制御方法及びプログラム
JP2013134601A (ja) 電子機器
CN106445376A (zh) 一种网页的操作方法及装置
US20140125867A1 (en) Methods and Apparatuses for Providing Automatic Interactive Area of Visability Video Zooming for Low Light Environments
WO2017164061A1 (ja) 出力制御装置、情報出力システム、出力制御方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20932881

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20932881

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP