WO2021106614A1 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
WO2021106614A1
WO2021106614A1 PCT/JP2020/042378 JP2020042378W WO2021106614A1 WO 2021106614 A1 WO2021106614 A1 WO 2021106614A1 JP 2020042378 W JP2020042378 W JP 2020042378W WO 2021106614 A1 WO2021106614 A1 WO 2021106614A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
presentation
user
state
action
Prior art date
Application number
PCT/JP2020/042378
Other languages
English (en)
French (fr)
Inventor
哲男 池田
淳 入江
健志 後藤
洋祐 加治
英佑 藤縄
誠史 友永
忠義 村上
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2021561302A priority Critical patent/JPWO2021106614A1/ja
Priority to US17/773,439 priority patent/US20220377294A1/en
Priority to CN202080080503.8A priority patent/CN114730238A/zh
Priority to EP20894350.6A priority patent/EP4068068A4/en
Publication of WO2021106614A1 publication Critical patent/WO2021106614A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • B60K35/223Flexible displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/50Instruments characterised by their means of attachment to or integration in the vehicle
    • B60K35/53Movable instruments, e.g. slidable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/1523Matrix displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/182Distributing information between displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1876Displaying information according to relevancy according to vehicle situations

Definitions

  • This technology relates to information processing devices, information processing methods, and programs, and particularly to information processing devices, information processing methods, and programs that present information with high usability.
  • Patent Document 1 discloses a technique for changing the size (window size) of a projected image according to the size of the projection surface on the table.
  • This technology was made in view of such a situation, and enables information presentation with high usability.
  • the information processing device or program of one aspect of the present technology includes presentation part information regarding a state change of a presentation part to which presentation information is presented, processing information regarding processing for generating the presentation information, and user's response to the processing. Control of the presentation state of the presentation information and at least one of the processing states based on at least one of the user information regarding the presentation information and the environment information regarding the environment state of the presentation site. It is an information processing device having a control unit to perform, or a program for operating a computer as such an information processing device.
  • the information processing method of one aspect of the present technology relates to the presentation part information regarding the state change of the presentation part to which the presentation information is presented by the control unit of the information processing apparatus having the control unit, and the process of generating the presentation information. Based on at least one of the processing information, the user information regarding the user's response to the processing, and the environmental information regarding the environmental state of the presentation site, the presentation state of the presentation information and the state of the processing. It is an information processing method that controls at least one of the states.
  • the presentation part information regarding the state change of the presentation part to which the presentation information is presented and the processing information regarding the process of generating the presentation information, the above.
  • the presentation state of the presentation information and at least one of the processing states is controlled.
  • FIG. 1 It is a block diagram which showed the structural example of one Embodiment of the information processing system to which this technology is applied. It is a figure which illustrated the action definition table. It is a figure which illustrated the application state definition table. It is a figure which illustrated the urgency definition table. It is a flowchart explaining the processing example performed by an information processing apparatus. It is a top view of an automobile in which an information processing device is applied as a projection device in the car. It is a side view of an automobile in which an information processing apparatus is applied as a projection apparatus in an automobile. It is a figure which illustrated the position of the presentation part where the presentation information is projected in the car interior of an automobile. It is a figure which illustrated the operation of the slideable armrest of a rear seat.
  • FIG. 2 stored in the action definition storage unit of FIG. 1, it is a figure exemplifying a record in which the "application type" field is a map application. It is a figure exemplifying the state of the inside of a vehicle and the projected image when the record R111 or the record R112 of FIG. 35 is executed. It is a figure explaining the arrangement of the table when the top plate of the table is used as a movable presentation part in a room such as a conference room. It is the figure which illustrated the state which the presentation information of a discussion application was projected on the top plate which connected two tables.
  • the action definition table of FIG. 2 stored in the action definition storage unit of FIG.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of an information processing device to which the present technology is applied.
  • the information processing device 11 is a device that projects presentation information generated by a predetermined process onto a movable presentation portion by a projector and presents it to a user, for example, in a car or a conference room.
  • the presented information is information generated by the processing of the OS (Operating System) or a predetermined application (hereinafter, simply referred to as an application).
  • the type of application is not limited to a specific type such as a weather forecast application, a music application, a car navigation application, a gourmet application, a video application, a map application, and a discussion application.
  • the movable presentation part means that the presentation part on which the presentation information is presented (projected) is the surface of a moving member.
  • a moving member For example, an automobile door glass, a sunroof (slide panel), a movable table (top plate) such as a conference room, or the like can be a movable presentation part.
  • the information processing device 11 has an input unit 21, an arithmetic processing unit 22, a storage unit 23, and an output unit 24.
  • the input unit 21 acquires "information about the presentation part", “information about the user”, and “information about the environment” of the presentation part on which the presentation information is projected, and supplies the input information to the arithmetic processing unit 22.
  • an appropriate sensor or the like is appropriately selected and used according to the environment or the like in which the presentation portion is provided.
  • the sensor or the like that acquires "information about the presentation part” and "information about the user” may be one or more image sensors or depth sensors that acquire the image of the presentation part or the user.
  • the image sensor may be a visible light camera or an infrared camera.
  • the depth sensor may be a stereo camera that acquires three-dimensional information of the presentation portion or the user, or may be a ToF (time of flight) sensor or the like.
  • the senor or the like that acquires "information about the presentation part” may be a position sensor that detects the position of the member including the presentation part.
  • the member including the presentation part means not only a member integrated with the member serving as the presentation part but also a member interlocking with the member serving as the presentation part, that is, a member related to the state change of the presentation part.
  • an operation unit such as a touch sensor or an operation switch for electrically moving a member including a presentation part (including the case where the operation unit is an operation unit of a remote controller; the same applies hereinafter), or arithmetic processing.
  • the unit 22 has an operation unit for giving a predetermined instruction to the processing of the application or the like, the information indicating the operation of the user who operates the operation unit corresponds to "information about the user".
  • an operation unit (a mechanism for detecting the state of the user) may be included as a sensor or the like for acquiring "information about the user”.
  • the sensor or the like that acquires "information about the environment” may be an acceleration sensor, an angular velocity sensor, GPS (Global Positioning System), or the like.
  • the sensor or the like for acquiring "environmental information” is an acceleration sensor or GPS for detecting whether the automobile is running or stopped. And so on.
  • Information obtained by a device other than the information processing device 11 may be supplied to the arithmetic processing unit 22 as input information from the input unit 21.
  • the arithmetic processing unit 22 acquires necessary information (described later) based on the input information or the like from the input unit 21.
  • the arithmetic processing unit 22 executes the OS program, executes one or a plurality of applications specified by the user, and supplies the OS and the presentation information generated by the applications to the output unit 24.
  • the storage unit 23 stores data and the like necessary for executing programs such as an OS and various applications executed by the arithmetic processing unit 22.
  • the output unit 24 has one or a plurality of projectors that project the presentation information supplied from the arithmetic processing unit 22 onto the presentation portion.
  • the projector may be a fixed projector having a fixed projection direction, or a movable projector having a variable projection direction.
  • the arithmetic processing unit 22 projectors the presentation information as an image of a window area corresponding to the position and size of the presentation portion in the maximum projection image area (total projection area) that the projector can project. Supply to.
  • the arithmetic processing unit 22 supplies the projector with an image of the presentation information corrected for the projection distortion based on the inclination of the presentation portion (projection surface) with respect to the projector.
  • one projector By controlling (changing) the position and size of the window in the entire projection area by the arithmetic processing unit 22, one projector can project an image of the presentation information on the presentation parts at a plurality of positions, and the presentation information can be presented. The position of the part can be changed.
  • one projector can simultaneously project an image of the same presentation information or a plurality of images of different presentation information onto a plurality of presentation parts. Can be done.
  • the arithmetic processing unit 22 may project an image of the presentation information on the presentation parts at a plurality of positions by one projector by controlling the projection direction of the projector.
  • the output unit 24 has a speaker that outputs music or voice as a component.
  • the arithmetic processing unit 22 supplies sound information such as music and voice generated by processing by an application or the like to the speaker of the output unit 24.
  • the arithmetic processing unit 22 has a graphics display processing unit 31 and a detection processing unit 32 constructed by executing the program as functional blocks.
  • the detection processing unit 32 includes a database stored in the storage unit 23.
  • the graphics display processing unit 31 includes an input information analysis unit 41, an application execution unit 42, and a display control unit 43.
  • the input information analysis unit 41 analyzes the input information from the input unit 21 and analyzes the "presentation part information” regarding the state change of the presentation part, the "user information” regarding the user's response to the processing of the application or the like, and the presentation part. Acquire "environmental information” that indicates the state of the environment.
  • the "presentation site information” is "information indicating a state change of the presentation site” when the movable presentation site that projects the presentation information moves, or "information indicating the user's action related to the state change of the presentation site”. Is.
  • the "information indicating the state change of the presentation part” is acquired by the input information analysis unit 41 analyzing the "information about the presentation part" which is the input information from the input unit 21.
  • the "information indicating the user's movement related to the state change of the presentation part” is information indicating the operation of the user who operates the operation unit for electrically moving the member including the presentation part, or the member including the presentation part. Is information indicating the operation that the user manually moves.
  • the "information indicating the user's operation related to the state change of the presentation portion" is acquired by the input information analysis unit 41 analyzing the "information about the user” which is the input information from the input unit 21.
  • User information includes information indicating the user's status (whether or not browsing) with respect to the presented information.
  • the "user information” includes "information indicating the user's operation on the process”.
  • the "information indicating the user's operation” further includes information indicating the user's operation content for the process and information indicating the presence / absence (whether or not the operation is being performed) of the user's operation for the process.
  • the "user information” is acquired by the input information analysis unit 41 analyzing the "information about the user” which is the input information from the input unit 21.
  • Environmental information is, for example, information indicating that the vehicle is running or stopped when the environment in which the presentation portion is provided is inside the vehicle.
  • the "environmental information” is acquired by the input information analysis unit 41 analyzing the “environmental information” which is the input information from the input unit 21.
  • the input information analysis unit 41 supplies the "presentation site information", "user information”, and “environmental information” acquired by analyzing the input information to the detection processing unit 32.
  • the "user information” supplied to the detection processing unit 32 includes “information indicating the user's status (whether or not it is being browsed)” and “whether or not the user is operating on the processing (whether or not it is being operated). Information indicating (whether or not).
  • the input information analysis unit 41 supplies "information indicating the user's operation content for processing" as "user information” to the application execution unit 42.
  • the application execution unit 42 starts the application specified by the user based on the "information indicating the user's operation content for the processing" from the input information analysis unit 41, and displays the presentation information generated by the application to the display control unit 43. Supply.
  • the application execution unit 42 supplies the "information indicating the type of processing (application)" executed by itself and the “information indicating the processing status (content)” to the detection processing unit 32.
  • the "information indicating the type of processing (application)” and the “information indicating the processing status (content)” are “processing information” related to the processing (application) that generates the presentation information.
  • the application execution unit 42 processes according to the user's operation content based on the "user information" ("information indicating the user's operation content for the process") from the input information analysis unit 41 during the execution of the application. To execute.
  • the application execution unit 42 executes the processing (described later) instructed by the detection processing unit 32.
  • the display control unit 43 controls the presentation state regarding the presentation part (area), the presentation form, etc. when projecting the presentation information from the application execution unit 42 onto the presentation part.
  • the display control unit 43 is a projection image of the window area corresponding to the position and size of the presentation portion designated by the user based on the "information indicating the user's operation content for the processing" from the input information analysis unit 41.
  • the image of the presented information is supplied to the projector of the output unit 24.
  • the display control unit 43 controls the presentation form (image configuration, etc.) of the presentation information when projecting the presentation information from the application execution unit 42 onto the presentation portion.
  • the display control unit 43 controls the presentation portion on which the presentation information is projected and the presentation form of the presentation information according to the instruction from the detection processing unit 32.
  • the detection processing unit 32 has an action execution unit 51, an action definition storage unit 52, an urgency definition storage unit 53, and an application state definition storage unit 54.
  • the action execution unit 51 acquires "presentation site information", "processing information”, “user information”, and "environmental information” from the input information analysis unit 41 and the application execution unit 42 of the graphics display processing unit 31.
  • the "user information" acquired by the action execution unit 51 from the input information analysis unit 41 includes "information indicating the user's state (whether or not it is being browsed) with respect to the presented information” and "user's operation for processing". Information indicating the presence or absence of (whether or not the operation is in progress).
  • the action execution unit 51 detects an action to be executed from the database stored in the storage unit 23 based on the acquired information.
  • the action execution unit 51 instructs the graphics display processing unit 31 (application execution unit 42 and display control unit 43) to execute the processing of the action detected from the database.
  • the action definition storage unit 52 stores data (records) in the action definition table, which is a database for detecting the action executed by the action execution unit 51 (to be executed by the graphics display processing unit 31).
  • FIG. 2 is a diagram illustrating an action definition table.
  • the action definition table has "app type”, “app state”, “trigger”, “urgency”, and “action” as items (attributes) of each column.
  • Each record (row) of the action definition table has a field for storing data corresponding to the item of each column.
  • each record has a field for storing the contents of "app type”, "app state”, “trigger”, “urgency”, and "action".
  • the fields that store the "app type”, “app status”, “trigger”, “urgency”, and “action” data of each record are the “app type” field, "app status” field, and “trigger”. They are called “fields”, "urgency” fields, and "action” fields.
  • the "application type” field represents the type of application that can be executed by the graphics display processing unit 31 (application execution unit 42).
  • the "app type” field data indicating the type of an application such as a weather forecast application, a music application, a car navigation application, a video application, a map application, and a discussion application is stored.
  • the action execution unit 51 detects a record in which the type of the application executed by the graphics display processing unit 31 is the data in the "application type” field, based on the "processing information" from the graphics display processing unit 31. ..
  • the action execution unit 51 sets a record in which the type of application obtained by the "information indicating the type of processing (application)" supplied from the application execution unit 42 is the data in the "application type” field. To detect.
  • the "app status” field represents at least one of the status of the processing of the application, the status of the user's response to the processing of the application, and the status of the environment of the presentation part.
  • the processing status of the application represents, for example, the processing status of the content being played or stopped in the case of a music application or a video application.
  • the state related to the user's response to the processing represents the user's state (whether or not it is being viewed) with respect to the presented information (projected image) and the presence or absence of the user's operation (whether or not it is being operated) for the processing.
  • the environmental state of the presentation part represents, for example, the environmental state such as whether or not the car is running when the member provided in the car of the car is the presentation part.
  • any app status defined in the app status definition table of FIG. 3 described later is stored.
  • the data in the "application status" field of each record in the action definition table is the "processing information", "user information”, and "user information” from the graphics display processing unit 31 (application execution unit 42).
  • the corresponding record is detected for the processing status, the status related to the user's response to the processing, and the environmental status of the presentation site obtained from the "environmental information”.
  • the "trigger” field is an event that triggers the execution of an action, and represents the state change of the presentation part or the user's action related to the state change of the presentation part.
  • the state change of the presentation part represents, for example, a state change such as the armrest of the automobile as a movable presentation part being slid (the position has changed).
  • the user's movement related to the state change of the presentation part of the presentation information represents, for example, the movement of the user touching the armrest to slide the armrest of the automobile as the movable presentation part.
  • the action execution unit 51 performs a user's action related to the state change of the presentation part or the state change of the presentation part based on the "presentation part information" from the graphics display processing unit 31 (input information analysis unit 41). Detect the record that is the data of the "trigger" field.
  • the "urgency” field indicates the degree to which the changed state is related to physiology when the state of the presentation site is changed by the trigger represented by the data in the "trigger" field and nothing is handled.
  • the “action” field represents a process executed by the detection processing unit 32 (the detection processing unit 32 causes the graphics display processing unit 31 to execute) when a trigger represented by the data in the "trigger" field occurs.
  • control of the presentation part such as movement and change of the presentation part (projection area), control of presentation form of presentation information such as composition (layout) of projected image of presentation information and addition of warning information, etc.
  • control of presentation form of presentation information such as composition (layout) of projected image of presentation information and addition of warning information, etc.
  • the application represented by the data in the "app type” field of any record in the action definition table is called an application defined in the action definition storage unit 52 (action is defined), and is any one of the action definition tables.
  • the trigger represented by the data in the "trigger” field of the record is called the trigger defined in the action definition storage unit 52 (the action is defined).
  • the application state definition storage unit 54 stores the data in the application state definition table that defines the type of data in the “app state” field of the action definition table in FIG.
  • FIG. 3 is a diagram illustrating an application state definition table.
  • the application state definition table has "app state” and "meaning” as column items (attributes).
  • Each record (row) of the application state definition table has a field for storing data corresponding to the item of each column.
  • each record in the application state definition table has an "app state” field for storing the contents of "app state” and “meaning”, and a "meaning” field.
  • “Browsing” indicates that the user is browsing the presentation information (projected image) of the application.
  • Normal represents a state that does not correspond to other types of application states.
  • the urgency definition storage unit 53 stores (saves) the urgency definition table that defines the “urgency” of the application state definition table of FIG.
  • FIG. 4 is a diagram illustrating an urgency definition table.
  • the urgency definition table has "urgency” and "meaning” as field (column) items (attributes). In each record (row) of the urgency definition table, the data corresponding to the item of each field is stored.
  • Major indicates that if the same condition continues for a long time, it may be related to menstruation.
  • the action execution unit 51 detects an action to be executed using the action definition table of FIG. 2, the data in the “urgency” field is not referred to, so that the “urgency” of the action definition table of FIG. 2 is used. It is possible not to provide the column of urgency and to define the urgency by the urgency definition table of FIG.
  • the data of the "app status" field, the "trigger” field, and the "urgency” field are each data. If they are common, the data in the "action” field can be common.
  • the urgency of the "urgency" field when the trigger of the "trigger” field occurs in the application state of the "app state” field is added to the urgency definition table.
  • the data in the "action" field can be determined automatically.
  • the data in the "action” field that is automatically determined is the data in the "action” field of other apps that has the same data in the "app status” field, "trigger” field, and "urgency” field. It may be the data of the "action” field predetermined for each combination of the data of the "app state” field, the "trigger” field, and the "urgency” field. As a result, it is possible to reduce the trouble of creating an action definition table by examining the action in the "action” field for each application, and it becomes easy to add a new application to the application of the action definition table.
  • FIG. 5 is a flowchart illustrating a processing example performed by the information processing apparatus 11.
  • step S11 the graphics display processing unit 31 supplies the presentation information to the output unit 24 and starts projecting the presentation information. The process proceeds from step S11 to step S12.
  • the graphics display processing unit 31 detects that the user has performed a switch operation or a gesture for instructing the projection of the projected image to a predetermined presentation portion based on the input information from the input unit 21. Start projecting the projected image. Further, when the projection is started, the graphics display processing unit 31 projects, for example, a guide image for the user to select an application to be started on the presentation portion as an initial projection image.
  • step S12 the graphics display processing unit 31 is selected by the user based on the user's operation (“information indicating the user's operation content”) acquired from the input information (“information about the user”) from the input unit 21. Launch the app.
  • the graphics display processing unit 31 supplies the presentation information generated by the started application to the projector of the output unit 24, and projects the presentation information onto the presentation part. The process proceeds from step S12 to step S13.
  • step S13 the graphics display processing unit 31 determines whether or not the user has performed the end operation of projecting the projection information based on the user's operation.
  • step S13 If it is determined in step S13 that the end operation has been performed, the process of this flowchart ends.
  • step S13 If it is determined in step S13 that the end operation has not been performed, the process proceeds from step S13 to step S14.
  • step S14 the graphics display processing unit 31 acquires input information by the input unit 21. Then, the graphics display processing unit 31 analyzes the acquired input information to acquire "presentation site information", "user information”, and "environmental information".
  • the graphics display processing unit 31 includes "presentation site information", "user information”, and “environmental information” acquired by analyzing the input information, and the processing (app) executed by the graphics display processing unit 31.
  • Information indicating the type of the above and information indicating the state of processing executed by the graphics display processing unit 31 are supplied to the detection processing unit 32 as "processing information”.
  • the graphics display processing unit 31 supplies "presentation site information", “processing information”, “user information”, and "environmental information” to the detection processing unit 32.
  • the process proceeds from step S14 to step S15.
  • step S15 the detection processing unit 32 determines whether or not the graphics display processing unit 31 is executing any of the applications defined in the action definition storage unit 52.
  • the application executed by the graphics display processing unit 31 is any of the action definition tables in FIG. Determine if it exists as data in the "App Type" field of that record.
  • step S15 If it is determined in step S15 that the graphics display processing unit 31 has not executed the application defined in the action definition storage unit 52, the process returns from step S15 to step S13, and steps S13 to S15 are repeated.
  • step S15 if it is determined in step S15 that the graphics display processing unit 31 is executing the application defined in the action definition storage unit 52, the process proceeds from step S15 to step S16.
  • step S16 the detection processing unit 32 determines whether or not any of the triggers defined in the action definition storage unit 52 has been detected.
  • the detection processing unit 32 acquires the state change of the presentation part or the user's action related to the state change of the presentation part based on the "presentation part information" acquired in step S14. Then, the detection processing unit 32 sets the acquired state change of the presentation portion or the user's action in any record of the application executed by the graphics display processing unit 31 of the action definition table of FIG. Determine if the data in the "trigger" field exists as a trigger.
  • step S16 If it is determined in step S16 that the trigger defined in the action definition storage unit 52 has not occurred, the process returns from step S16 to step S13, and the processes of steps S13 to S16 are repeated.
  • step S16 determines whether the trigger defined in the action definition storage unit 52 has been detected. If it is determined in step S16 that the trigger defined in the action definition storage unit 52 has been detected, the process proceeds from step S16 to step S17.
  • step S17 the detection processing unit 32 obtains the “process” acquired in step S14 among the records of the action definition table of FIG. 2 regarding the application executed by the graphics display processing unit 31 and the trigger detected in step S16. Detects a record in which the application status obtained from "information", “user information”, and “environmental information” is used as data in the "application status" field.
  • the detection processing unit 32 causes the graphics display processing unit 31 to execute the action in the "action" field of the detected record as an action according to the application state.
  • the process returns from step S17 to step S13, and steps S13 to S17 are repeated.
  • step S13 when it is determined that the end operation has been performed, the graphics display processing unit 31 ends the processing of this flowchart.
  • Application Example 1 of Information Processing Device 11 As an application example 1 of the information processing device 11 of FIG. 1, a case where the information processing device 11 is applied as a projection device for projecting presentation information of various applications onto a movable presentation portion in an automobile will be described.
  • 6 and 7 are a plan view and a side view of the automobile 71 to which the information processing device 11 is applied as a projection device in the car.
  • projectors 81, 82, 83, and 84 which are output units 24 of the information processing device 11 of FIG. 1, are installed in the vehicle of the automobile 71.
  • the projector 81 is installed near the center in the vertical and horizontal directions in the rear part of the vehicle.
  • the projector 82 is installed on the upper part of the right side surface in the rear part of the vehicle.
  • the projector 83 is installed on the upper left side surface in the rear part of the vehicle.
  • the projector 84 is installed on the front side of the ceiling in the vehicle.
  • FIG. 8 is a diagram illustrating the position of the presentation portion (projection surface) on which the presentation information is projected in the vehicle interior 91 of the automobile 71.
  • the ceiling 92 is used as a presentation portion, and the projected image 93 from the projector 81 is projected on the ceiling 92.
  • a slide panel hereinafter, simply referred to as a sunroof
  • a sunroof that shields the sunroof is used as a movable presentation portion.
  • the left door glass 94 of the rear seat is used as a movable presentation part, and the projected image 95 from the projector 82 is projected on the left door glass 94.
  • the right door glass 96 of the rear seat is used as a movable presentation part, and the projected image 97 from the projector 83 is projected on the right door glass 96.
  • the armrest 98 in the center of the rear seats In addition to the ceiling 92 and the left door glass 94 and right door glass 96 of the rear seats, the armrest 98 in the center of the rear seats, the headrest 99 of the driver's seat, the headrest 100 of the passenger seat, the door glass 101 of the passenger seat, and ,
  • the dashboard (passenger seat glove box door) 102 and the like are used as movable presentation parts. For example, a projected image from any of the projectors 81 to 84 is projected onto the armrest 98.
  • a projected image from any of the projectors 81 to 83 is projected on the headrest 99 of the driver's seat and the headrest 100 of the passenger's seat.
  • the projected image from the projector 84 is projected on the passenger seat door glass 101 and the dashboard 102.
  • FIG. 9 is a diagram illustrating the operation of the slideable armrest 98 of the rear seat.
  • the armrest 98 is provided so as to be slidable in the front-rear direction on the upper portion of the rectangular base 122 installed in the center of the rear seat 121.
  • the armrest 98 is located at the standard position at the front end of the movable range with respect to the base 122.
  • the armrest 98 is slid rearward in the movable range with respect to the base 122, and the storage portion 123 of the base 122 is opened.
  • FIG. 10 is a diagram illustrating a state in which the information presented by the weather forecast application is projected on the armrest 98.
  • the projection image 141 of the presentation information of the weather forecast application is projected on the armrest 98 by, for example, the projector 82 of FIG.
  • the projected image 141 is projected, for example, on the front end side of the upper surface of the armrest 98.
  • FIG. 11 is a diagram illustrating a record in which the “application type” field is a weather forecast application in the action definition table of FIG. 2 stored in the action definition storage unit 52 of FIG.
  • the app type is the weather forecast app and the app state is operated.
  • the trigger is an action by which the user shifts the armrest 98 or a change in the position of the armrest 98.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R11 of FIG. ..
  • FIG. 12 is a diagram illustrating the state of the armrest 98 and the projected image when the action of the record R11 of FIG. 11 is executed.
  • the projected image 141 which is the information presented by the weather forecast application, slides backward together with the armrest 98.
  • the area of the window for projecting the presentation information of the weather forecast application slides backward together with the armrest 98, and the projected image 141 of the presentation information slides backward together with the armrest 98.
  • the entire presentation information of the weather forecast application is projected on the front end side of the surface of the armrest 98 without being lost.
  • the application window slides together with the slide of the armrest 98, and the entire presentation information of the weather forecast application is projected as the projected image 141, so that usability is maintained.
  • the armrest 98 is slid backward as shown in the state B of FIG.
  • the application type is the weather forecast application
  • the application state is being browsed
  • the trigger is the action of the user shifting the armrest 98 or the change in the position of the armrest 98.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R12 of FIG. ..
  • the application window of the weather forecast application slides backward together with the armrest 98 as in the case of record R11, and the projected image 141 slides backward together with the armrest 98 as in FIG. ..
  • the application window slides together with the slide of the armrest 98, and the entire presentation information of the weather forecast application is projected as the projected image 141, so that usability is maintained.
  • the armrest 98 is moved backward as shown in the state B of FIG.
  • the app type is a weather forecast app
  • the app state is normal
  • the trigger is an action by the user to shift the armrest 98 or a change in the position of the armrest 98.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R13 of FIG. ..
  • FIG. 13 is a diagram illustrating the state of the armrest 98 and the projected image 141 when the action of the record R13 of FIG. 11 is executed.
  • the detection processing unit 32 does nothing when the armrest 98 is slid. As a result, the application window for projecting the presentation information of the weather forecast application is not changed, and the projected image 141 does not slide together with the armrest 98 as shown in FIG. Therefore, some of the information presented by the weather forecast application is missing.
  • the action in the "action” field of the records R11 to R13 in the action definition table of FIG. 11 is an arbitrary type of application in which the "app state” field and the “trigger” field can be classified into the same combination as the records R11 to R13. And can be applied as an action of any presentation part (not limited to automobiles).
  • the presentation information of the image viewing application is projected on the armrest 98
  • the presentation information of the image viewing application is a presentation part other than the armrest 98 and has the same state change as the armrest 98 (not limited to the state change due to the slide).
  • the action in the "action" field of the records R11 to R13 can be applied even when the image is projected on the presentation site where the above occurs.
  • FIG. 14 is a diagram illustrating a state in which the presentation information of the music application is projected on the armrest 98.
  • the projected image 161 of the presentation information of the music application is projected on the armrest 98 by, for example, the projector 82 of FIG. Will be done.
  • the projected image 161 is projected, for example, on the front end side of the upper surface of the armrest 98.
  • FIG. 15 is a diagram illustrating a record in which the “application type” field is a music application in the action definition table of FIG. 2 stored in the action definition storage unit 52 of FIG.
  • the app type is the music app.
  • the application state is playing at a certain volume or higher, and the trigger is an action in which the user touches the armrest 98 (an action to shift the armrest 98).
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 to execute the action of the “action” field of the record R31 of FIG.
  • FIG. 16 is a diagram illustrating the state of the armrest 98 and the projected image 161 when the action of the record R31 of FIG. 15 is executed.
  • the warning information 162 suppresses an unexpected situation in which the armrest 98 is slid and the volume cannot be adjusted. That is, if the volume adjustment operation becomes impossible when the music application is being played at a certain volume or higher, the volume may suddenly increase depending on the music. When the user slides the armrest 98, a part of the information presented by the music application may be lost and the volume adjustment operation may become impossible. Therefore, the user should be careful not to slide the armrest 98 by the warning information 162. To urge.
  • a trigger is generated.
  • the application type is a music application
  • the application state is playing at a certain volume or higher
  • the trigger is an operation in which the user shifts the armrest 98 or a change in the position of the armrest 98.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 to execute the action of the “action” field of the record R32 of FIG.
  • the playback by the music application is changed to the paused state.
  • the application window of the music application is not changed, and a part of the presentation information of the music application is missing.
  • the application type is the music application.
  • the application state is playing at a volume lower than a certain volume
  • the trigger is an operation in which the user shifts the armrest 98 or a change in the position of the armrest 98.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 to execute the action of the “action” field of the record R33 of FIG.
  • FIG. 17 is a diagram illustrating the state of the armrest 98 and the projected image when the action of the record R33 of FIG. 15 is executed.
  • the application window that projects the presentation information of the music application is not changed, and the icon 163 is projected at the position where the armrest 98 is slid and can be projected onto the armrest 98 within the range of the application window. Will be done. Further, for example, the operation by the gesture in the air on the icon 163 is enabled, and the user can stop the playback of the music by the gesture.
  • the change from the projected image 161 of the presentation information of the music application to the icon 163 is particularly effective when the armrest 98 has no area for projecting the entire presentation information of the music application due to the sliding of the armrest 98.
  • the app state is the music app and the app state is Normally, the trigger is an action by the user to shift the armrest 98 or a change in the position of the armrest 98.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R34 of FIG. ..
  • FIG. 18 is a diagram illustrating the state of the armrest 98 and the projected image 161 when the action of the record R34 of FIG. 15 is executed.
  • the detection processing unit 32 does nothing when the armrest 98 is slid. As a result, the application window for projecting the presentation information of the music application is not changed, and the projected image 161 does not slide together with the armrest 98 as shown in FIG. Therefore, a part of the presentation information of the music application is missing.
  • the action in the "action” field of the records R31 to R34 in the action definition table of FIG. 15 is an arbitrary type of application in which the "app state" field and the “trigger” field can be classified into the same combination as the records R31 to R34. And can be applied as an action of any presentation part (not limited to automobiles).
  • FIG. 19 is a diagram illustrating a state in which the presentation information of the car navigation application is projected on the dashboard 102 of the passenger seat.
  • the presentation information of the car navigation application is projected as a projected image 181 on the dashboard 102 of the passenger seat, for example, by the projector 84 of FIGS. 6 and 7.
  • the open / close button 191 that opens / closes the dashboard 102 while the dashboard 102 is closed as shown in FIG. 19, a trigger is generated.
  • FIG. 20 is a diagram illustrating a record in which the “application type” field is a car navigation application and a gourmet application in the action definition table of FIG. 2 stored in the action definition storage unit 52 of FIG.
  • the application type is a car navigation application
  • the application state is running
  • the trigger is an operation in which the user presses the open / close button 191 of the dashboard 102.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R51 of FIG. ..
  • FIG. 21 is a diagram illustrating the state of the dashboard 102 and the projected image 181 when the action of the record R51 of FIG. 20 is executed.
  • the warning information 182 calls attention not to open the dashboard 102 because the information presented by the car navigation application cannot be seen when the dashboard 102 is opened.
  • the dashboard 102 is locked in the closed state, and is controlled so as not to open even if the open / close button 191 is pressed.
  • the lock mechanism of the dashboard 102 is controlled, for example, by the detection processing unit 32 transmitting a control signal to the lock mechanism.
  • the action of the user pressing the open / close button 191 may not be the trigger, but the action of the user's hand (finger) approaching the open / close button 191 may be the trigger.
  • the dashboard 102 may be opened as an action that does nothing without executing the action of the record R51.
  • the application type is changed. It is a car navigation application, the application state is stopped, and the trigger is an operation in which the user presses the open / close button 191 of the dashboard 102.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R52 of FIG. ..
  • FIG. 22 is a diagram illustrating the state of the dashboard 102 and the projected image 181 when the action of the record R52 of FIG. 20 is executed.
  • the detection processing unit 32 does nothing in response to the opening / closing button 191 being pressed. This opens the dashboard 102 upwards.
  • the accommodating portion 193 closed by the dashboard 102 is opened. Further, the projected image 181 projected on the dashboard 102 is projected in the accommodating portion 193. However, when objects are accommodated in the accommodating portion 193, they are projected on the surface of those objects and are not necessarily projected on a flat projection surface.
  • the action in the "action” field of the records R51 and R52 in the action definition table of FIG. 20 can be of any kind in which the "app state” field and the "trigger” field can be classified into the same combination as the record records R51 and R52. It can be applied as an action of the application and any presentation part (not limited to automobiles).
  • FIG. 23 is a diagram illustrating a state in which the presentation information of the gourmet application is projected on the dashboard 102 of the passenger seat.
  • the application type is a gourmet application
  • the application state is normal
  • the trigger is an operation in which the user presses the open / close button 191 of the dashboard 102.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R53 of FIG. ..
  • FIG. 24 is a diagram illustrating the state of the dashboard 102 and the projected image 201 when the action of the record R53 of FIG. 20 is executed.
  • the detection processing unit 32 does nothing in response to the opening / closing button 191 being pressed. This opens the dashboard 102 upwards.
  • the accommodating portion 193 closed by the dashboard 102 is opened. Further, the projected image 201 projected on the dashboard 102 is projected into the accommodating portion 193.
  • the dashboard 102 opens.
  • FIG. 25 is a diagram illustrating the operation of the headrest 99 of the driver's seat 221.
  • the headrest 99 of the driver's seat 221 changes its inclination in the front-rear direction by adjusting the inclination of the backrest of the driver's seat 221 or adjusting the inclination of the headrest 99.
  • State A indicates a state in which the headrest 99 is tilted forward from state B
  • state B indicates a state in which the headrest 99 is tilted rearward from state A.
  • the presentation information of the video application is displayed on the headrest 99, for example, in FIG. It is projected by the projector 83 of 6 and 7.
  • FIG. 26 is a diagram illustrating a state in which the presentation information of the video application is projected on the headrest 99 in the state A of FIG. 25.
  • the presentation information of the moving image application is projected onto the headrest 99 as a projected image 241.
  • the projected image 241 has a reproduction unit 242 on which a moving image is presented, and an operation unit 243 for operating the reproduction and stop of the operation.
  • the reproduction unit 242 is below the operation unit 243. Projected on.
  • FIG. 27 is a diagram illustrating a record in which the “application type” field is a video application or a weather forecast application in the action definition table of FIG. 2 stored in the action definition storage unit 52 of FIG.
  • the application type is the video application
  • the application state is playing
  • the trigger Is an action in which the user tilts the reclining, or a change in the inclination of the driver's seat 221 or the headrest 99.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R71 of FIG. 27. ..
  • FIG. 28 is a diagram illustrating the state of the headrest 99 and the projected image 241 when the action of the record R71 of FIG. 27 is executed.
  • the reproduction unit 242 in the projected image 241 is above the operation unit 243 as shown in FIG. 28. Projected on. As a result, it is possible to prevent the line-of-sight direction of the user viewing the reproduction unit 242 from changing significantly from before the reclining is defeated.
  • the application type in this case is the video application
  • the application state is normal
  • the trigger is an action in which the user tilts the reclining, or a change in the inclination of the driver's seat or the headrest 99.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R72 of FIG. 27. ..
  • FIG. 29 is a diagram illustrating the state of the headrest 99 and the projected image 241 when the action of the record R72 of FIG. 27 is executed.
  • the detection processing unit 32 does nothing in response to the reclining being defeated. Therefore, the arrangement of the reproduction unit 242 and the operation unit 243 in the projected image 241 is the same as in the case of FIG. 26, with the reproduction unit 242 at the bottom and the operation unit 243 at the top.
  • FIG. 30 is a diagram illustrating the line-of-sight direction 254 of the user 253 who is viewing the projected image 241 of the headrest 99 on which the presentation information of the video application is projected.
  • the projected image 241 of the headrest 99 is arranged with the reproduction unit 242 on the lower side and the operation unit 243 on the upper side. It represents the line-of-sight direction 254 of the user 253 in the layout.
  • the line-of-sight direction 254 of the user 253 is, for example, a substantially horizontal direction.
  • 26, 28, and 29 show the boundary between the windshield 251 and the opaque portion 252 (instrument panel or dashboard) of the user 253 in the line-of-sight direction 254 of A in FIG.
  • the field of view is as shown in FIG.
  • the projected image 241 of the headrest 99 is arranged with the reproduction unit 242 on the upper side and the operation unit 243 on the lower side. It represents the line-of-sight direction 254 of the user 253 in the layout.
  • FIG. 28 is a diagram illustrating the layout of the projected image 241 in which the reproduction unit 242 is arranged on the upper side and the operation unit 243 is arranged on the lower side, the state of the user's peripheral visual field is not accurately represented. However, assuming that the vicinity of the center of the reproduction unit 242 is the center of the field of view, the user's peripheral visual field includes a lot of scenery outside the vehicle through the windshield 251 as in the case of A in FIG. It's hard to do.
  • the projected image 241 in which the reproduction unit 242 is arranged on the upper side and the operation unit 243 is arranged on the lower side as shown in C of FIGS. 28 and 30 is projected. ing.
  • the presentation information of the weather forecast application is projected on the headrest 99 and the reclining is defeated, the action of the record R73 in FIG. 27 is executed.
  • the detection processing unit 32 of FIG. 1 does nothing in response to the reclining being knocked down.
  • the user does not keep watching the projected image, so that motion sickness is not considered.
  • the action of the user tilting the reclining (or the change in the inclination of the driver's seat or the headrest 99) is used as a trigger, but the user reclines, including the action of causing the user to recline.
  • the movement may be triggered by a change in the inclination of the reclining.
  • the reproduction unit 242 of the projected image 241 operates. It is projected below the portion 243.
  • the reproduction unit 242 of the projected image 241 operates. It may be arranged above the portion 243.
  • the same processing as when the headrest 99 of the driver's seat 221 is used as the movable presentation part can be applied.
  • the action in the "action” field of the records R71 and R72 in the action definition table of FIG. 27 is an arbitrary type of application in which the "app state” field and the “trigger” field can be classified into the same combination as the records R71 and R72. And can be applied as an action of any presentation part (not limited to automobiles).
  • FIG. 31 is a diagram illustrating a state in which the presentation information of the moving image application is projected on the right door glass 96 of the rear seat.
  • the presentation information of the video application is displayed on the right door glass 96 as shown in FIG. As a projected image 271, it is projected by, for example, the projector 83 of FIG.
  • a trigger is generated when the user 281 or the like opens the window (right door glass 96) or the door (right door). To do.
  • FIG. 32 is a diagram illustrating a record in which the “application type” field is a moving image application in the action definition table of FIG. 2 stored in the action definition storage unit 52 of FIG.
  • the application type is the video application
  • the application state is playing
  • the trigger is the action of the user opening the window, or This is the displacement due to the descent of the window (right door glass 96).
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R91 of FIG. ..
  • FIG. 33 is a diagram illustrating the state of the right door glass 96 and the projected image 271 when the action of the record R91 of FIG. 32 is executed.
  • the action of the record R91 is executed, and the playback of the moving image in the moving image application is paused.
  • the application type is the video application
  • the application state is normal
  • the trigger is the action of the user opening the window, or This is the displacement caused by the descent of the window.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R92 of FIG. ..
  • the detection processing unit 32 does nothing in response to the opening of the window.
  • the application type in this case is the video application, and the application state is playing or normal.
  • the trigger is the action of the user opening the door or the displacement of the door.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R93 of FIG. ..
  • the records are originally different depending on whether the application state is normal or during playback, they are omitted and used as the same record.
  • the video being played by the video application is paused, and the projector (projector 83) projecting the projected image 271 is turned off. All projectors may be turned off. As a result, the situation in which the light of the projector is irradiated to the eyes of the user who moves up and down is suppressed.
  • the action in the "action” field of the records R91 and R92 in the action definition table of FIG. 32 is an arbitrary type of application in which the "app state” field and the “trigger” field can be classified into the same combination as the records R91 and R92. And can be applied as an action of any presentation part (not limited to automobiles).
  • the action in the "action” field of the record R93 in the action definition table of FIG. 32 has the same combination of the "app state” field and the "trigger” field as the record R93 (the app state is normal and playback, and the trigger is the presentation part). It can be applied as an action of any kind of application that can be classified into (state change) and any presentation part (not limited to automobiles).
  • FIG. 34 is a diagram illustrating a state in which the presentation information of the map application is projected on the ceiling 92.
  • the presentation information of the map application is projected onto the ceiling 92 as a projected image 291, for example, FIGS. 6 and 7. It is projected by the projector 81 of.
  • the sunroof is shielded from light by, for example, a slide panel.
  • the sunroof becomes translucent.
  • making the sunroof transparent means opening the sunroof.
  • FIG. 35 is a diagram illustrating a record in which the “application type” field is a map application in the action definition table of FIG. 2 stored in the action definition storage unit 52 of FIG.
  • the application type When the projected image 291 of the presentation information of the map application is projected on the ceiling 92 and the user 311 is operating the map application and a user other than the user 311 or the user 311 opens the sunroof, the application type. Is a map app, the app state is operating, and the trigger is the action of the user opening the sunroof or the change to the position where the sunroof is open.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R111 of FIG. ..
  • the application type is the map application and the application state is being viewed.
  • the trigger is the action of the user opening the sunroof or the change from the closed position of the sunroof (slide panel).
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R112 of FIG. ..
  • FIG. 36 is a diagram illustrating the state of the inside of the vehicle and the projected image when the record R111 or the record R112 of FIG. 35 is executed.
  • the actions of the record R111 and the record R112 are the same, and when the action of the record R111 or the record R112 is executed, the presentation portion where the presentation information of the map application is projected is moved from the ceiling 92 (sunroof 301) to, for example, the headrest 100. After moving, the information presented by the map application is projected onto the headrest 100 as a projected image 292.
  • the presentation part of the destination where the presentation information is projected is the presentation part at a position where the user (target person) who was operating or browsing can see.
  • the headrest 99 in the passenger seat in which the user 311 can be seen is the presentation portion of the movement destination.
  • a normal monitor attached to a dashboard or the like, or the door glass of the front seat corresponds to the presentation part of the position where the target person can be seen, and the target person in the rear seat
  • the headrests 99 and 100 of the front seats, the door glass of the rear seats and the like correspond.
  • the normal monitor is included as a component of the output unit 24 in FIG.
  • the application type is the map application and the application state is normal.
  • the trigger is the action of the user opening the sunroof or the change from the closed position of the sunroof (slide panel).
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R113 of FIG. ..
  • the detection processing unit 32 does nothing in response to the opening of the sunroof.
  • the action in the "action” field of the records R111 to R113 in the action definition table of FIG. 35 is an arbitrary type of application in which the "app state" field and the “trigger” field can be classified into the same combination as the records R111 to R113. And can be applied as an action of any presentation part (not limited to automobiles).
  • Application Example 2 of Information Processing Device 11 As an application example 2 of the information processing device 11 of FIG. 1, a case where the information processing device 11 is applied as a projection device for projecting presentation information of various applications (discussion applications) onto a movable presentation part in a room such as a conference room will be described. ..
  • FIG. 37 is a diagram for explaining the arrangement of the table when the top plate of the table is used as a movable presentation part in a room such as a conference room.
  • FIG. 37A a set of table 401 and chair 402 placed in the room is illustrated.
  • FIG. 37B illustrates a state in which the four top plates 403 of the table 401 of FIG. 37A are connected and arranged horizontally ⁇ vertically in 2 ⁇ 2 at the time of a meeting or the like.
  • the table 401 and the chair 402 are represented as the tables 401a to 401d and the chairs 402a to 402d.
  • a projector 404 is installed on the ceiling of the room.
  • FIG. 38 is a diagram illustrating a state in which the presentation information of the discussion application is projected on the connected top plate of the two tables 401a and 401b.
  • the top plate 403a represents the top plate of the table 401a
  • the top plate 403b represents the top plate of the table 401b.
  • the top plate 403a and the top plate 403b are opposed to each other and are connected to each other at the top and bottom in the figure without any gap, and the top plate 403a and the top plate 403b (upper surface) are used as presentation parts on which the presentation information of the discussion application is projected. Be done.
  • the projected image 411a and the projected image 411b represent the projected images projected on the top plate 403a and the top plate 403b, respectively. In a state where the top plate 403a and the top plate 403b are connected to each other with substantially no gap, the projected image 411a and the projected image 411b are projected onto the top plate 403a and the top plate 403b as one continuous projected image.
  • the projected image 411a and the projected image 411b include images of sticky notes 412a to 412f arranged in the background image on one side.
  • Sticky notes 412a to 412f are images on which a memo created by the user by the function of the discussion application is written.
  • the projection position of the sticky note moves according to the operation.
  • FIG. 39 is a diagram illustrating a record in which the “application type” field is a discussion application in the action definition table of FIG. 2 stored in the action definition storage unit 52 of FIG.
  • the application type is the discussion application
  • the application state is in the discussion
  • the trigger Is the action that the user touches the table.
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R121 of FIG. ..
  • the graphics display processing unit 31 may, for example, after the discussion when the user operates the discussion application for the end of the discussion. If the user who has finished the discussion has not operated, it is judged that the discussion is in progress.
  • the sticky note covers the areas of both groups.
  • a sticky note such as 412C or sticky note 412D exists, it is determined that the sticky note covering the area of both groups belongs to which group, so it is judged that the discussion is in progress, and the sticky note covers the area of both groups. If does not exist, it is judged that the discussion is in progress.
  • FIG. 40 is a diagram illustrating the states of the top plate 403a and the top plate 403b, and the projected image 411a and the projected image 411b when the action of the record R121 of FIG. 39 is executed.
  • the projected image 411b says "Discussing. Please do not let go of the table", "Do not let go of the desk. An image on which the warning information 413 of the character image such as "! Is superimposed is projected.
  • the application type is the discussion application
  • the application state is in discussion
  • the trigger Is a change in the position of the table 401b (a state change in which the table is released).
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R122 of FIG. 39. ..
  • FIG. 41 is a diagram illustrating the states of the top plate 403a and the top plate 403b, and the projected image 411a and the projected image 411b when the action of the record R122 of FIG. 39 is executed.
  • the sticky notes 412e and 412f on which the entire sticky note was projected on the top plate 403b are projected on the top plate 403b as they are.
  • the sticky notes 412c and 412d in which only a part of the sticky notes are projected on the top plate 403b that is, the sticky notes in the area of the top plate 403a are group A and the sticky notes in the area of the top plate 403b are group B
  • the top plate 403a The sticky notes 412c and 412d covering both areas of the top plate 403b and the top plate 403b are projected only on the top plate 403a as group A sticky notes, and are not projected on the top plate 403b.
  • the sticky notes 412c and 412d may also be projected on the top plate 403b.
  • the stickers are projected on each of the top plate 403a of the table 401a and the top plate 403b of the table 401b.
  • the sticker projected on the top plate of the other table may be iconified (reduced) and projected (another example of the action of record R122).
  • Example 2) only the sticker projected on each table may be projected (another example 3 of the action of record R122).
  • FIG. 42 is a diagram illustrating another example 1 of the action of the record R122 of FIG. 39.
  • FIG. 42A illustrates the projected image 411a of the top plate 403a and the projected image 411b of the top plate 403b when the table 401a and the table 401b are connected to each other.
  • sticky notes 412a to 412f are projected on the top plate 403a and the top plate 403b.
  • FIG. 42B shows the projected image 411a and the sky of the top plate 403a when the other example 1 of the action of the record R122 is executed when the table 401a and the table 401b are separated from the state of A in FIG. It represents the projected image 411b of the plate 403b.
  • the top plate 403a and the top plate 403b have all the sticky notes 412a to 412f included in the projected image 411a of the top plate 403a and the projected image 411b of the top plate 403b in A of FIG. 42, respectively. Is projected while holding the relative positions of each other.
  • FIG. 43 is a diagram illustrating another example 2 of the action of the record R122 of FIG. 39.
  • FIG. 43A illustrates the projected image 411a of the top plate 403a and the projected image 411b of the top plate 403b when the table 401a and the table 401b are connected to each other. Since A in FIG. 43 is the same as A in FIG. 42, the description thereof will be omitted.
  • FIG. 43B shows the projected image 411a and the sky of the top plate 403a when the other example 2 of the action of the record R122 is executed when the table 401a and the table 401b are separated from the state of A in FIG. 42. It represents the projected image 411b of the plate 403b.
  • sticky notes 412a to 412c projected on the top plate 403a in the state of A in FIG. 43 are projected on the top plate 403a.
  • the sticky note is closed in each region of the top plate 403a and the top plate 403b. It is a sticky note projected on the top plate with the larger area.
  • sticky notes 412ds, 412es, 412fs which are icons (reduced) of the sticky notes 412d to 412f projected on the top plate 403b in A of FIG. 42, are projected.
  • sticky notes 412as, 412bs, 412cs which are icons (reduced) of the sticky notes 412a to 412c projected on the top plate 403a of the table 401a in FIG. 43A, are projected.
  • FIG. 44 is a diagram illustrating another example 3 of the action of the record R122 of FIG. 39.
  • FIG. 44A illustrates the projected image 411a of the top plate 403a and the projected image 411b of the top plate 403b when the table 401a and the table 401b are connected to each other. Since A in FIG. 44 is the same as A in FIG. 42, the description thereof will be omitted.
  • FIG. 44 shows the projected image 411a and the sky of the top plate 403a when the other example 3 of the action of the record R122 is executed when the table 401a and the table 401b are separated from the state of A in FIG. It represents the projected image 411b of the plate 403b.
  • the sticky note In the case of a sticky note that covers an area on both the top plate 403a and the top plate 403b in the state of A in FIG. 44 like the sticky note 412a, for example, the sticky note is closed in each region of the top plate 403a and the top plate 403b. It is a sticky note projected on the top plate with the larger area.
  • the application type is the discussion application
  • the application state is after the discussion
  • the trigger is the change in the position of the table 401b (the table is). (Change in state of being separated).
  • the detection processing unit 32 of FIG. 1 causes the graphics display processing unit 31 of FIG. 1 to execute the action of the “action” field of the record R123 of FIG. ..
  • the detection processing unit 32 does nothing when the table is released.
  • the detection processing unit 32 of FIG. 1 displays the presentation information as the top plate of the table moves, regardless of which of the actions of record R121 and record R123 is executed. Change the position of the application window to be projected, and project the projected image so that the top plate of the table is always the presentation part of the presentation information.
  • the action in the "action” field of the records R121 to R123 in the action definition table of FIG. 39 is an arbitrary type of application in which the "app state" field and the "trigger” field can be classified into the same combination as the records R121 to R123. And can be applied as an action of any presentation site (not limited to the table).
  • the information processing device 11 of FIG. 1 projects the presentation information generated by the processing of the application or the like onto the movable or immovable presentation portion by the projector of the output unit 24.
  • a flat panel or a flexible image display (liquid crystal display, organic EL (Organic ElectroLuminescence), etc.) is provided on the surface of a movable or immovable member that can be a movable or immovable presentation portion.
  • the information presented by the arithmetic processing unit 22 may be displayed on the image display of the presenting portion.
  • At least the arithmetic processing unit 22 of the arithmetic processing unit 22 and the storage unit 23 is a server device that is communicably connected to the input unit 21 and the output unit 24 by a communication line such as the Internet. It may be.
  • the communication line may be wireless or wired, and may be a mixture of wireless and wired.
  • a part or all of the processing of the graphics display processing unit 31 and the detection processing unit 32 performed by the information processing device 11 of FIG. 1 can be executed by hardware or software.
  • the programs constituting the software are installed on the computer.
  • the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
  • FIG. 45 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • the CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 605 is further connected to the bus 604.
  • An input unit 606, an output unit 607, a storage unit 608, a communication unit 609, and a drive 610 are connected to the input / output interface 605.
  • the input unit 606 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 607 includes a display, a speaker, and the like.
  • the storage unit 608 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 609 includes a network interface and the like.
  • the drive 610 drives a removable medium 611 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 601 loads the program stored in the storage unit 608 into the RAM 603 via the input / output interface 605 and the bus 604 and executes the above-described series. Is processed.
  • the program executed by the computer (CPU601) can be recorded and provided on the removable media 611 as a package media or the like, for example.
  • the program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 608 via the input / output interface 605 by mounting the removable media 611 in the drive 610. Further, the program can be received by the communication unit 609 and installed in the storage unit 608 via a wired or wireless transmission medium. In addition, the program can be pre-installed in the ROM 602 or the storage unit 608.
  • the program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the present technology can also have the following configurations.
  • ⁇ 1> The presentation part information regarding the state change of the presentation part to which the presentation information is presented, the processing information regarding the processing for generating the presentation information, the user information regarding the user's response to the processing, and the environment of the presentation part.
  • An information processing device having a control unit that controls a presentation state of the presentation information and at least one of the processing states based on at least one of the environmental information related to the state.
  • the presentation part information is information indicating a state change of the presentation part or information indicating a user's operation related to the state change of the presentation part.
  • the operation of the user is an operation of the user who operates an operation unit for moving a member including the presentation portion, or an operation of the user manually moving a member including the presentation portion.
  • Information processing equipment ⁇ 4> The information processing apparatus according to any one of ⁇ 1> to ⁇ 3>, wherein the processing information is information indicating the type of the processing and information indicating the state of the processing.
  • ⁇ 6> The control unit according to any one of ⁇ 1> to ⁇ 5>, which controls the presentation portion or the presentation form of the presentation information as the control of the presentation state of the presentation information.
  • Information processing device. ⁇ 7> The information processing apparatus according to any one of ⁇ 1> to ⁇ 6>, wherein the presentation portion is a portion on which the presentation information is projected.
  • the presentation site is the surface of a movable member.
  • ⁇ 9> The information processing device according to ⁇ 8>, wherein the movable member is a member of an automobile.
  • ⁇ 10> The information processing device according to ⁇ 8>, wherein the movable member is a table.
  • the control unit performs the processing.
  • the information processing apparatus according to any one of ⁇ 1> to ⁇ 9>.
  • ⁇ 12> The information processing apparatus according to ⁇ 11>, wherein the control unit stops the processing when the processing information indicates that the processing state is being played back at a certain volume or higher.
  • ⁇ 13> When the processing information indicates that the processing state is being reproduced, and the presentation site information indicates that a user action that causes a state change of the presentation site has been performed.
  • the information processing device according to claim 1, wherein the control unit causes the presentation site to present warning information to any one of ⁇ 1> to ⁇ 9>.
  • ⁇ 14> The control when the environmental information indicates that the automobile is running and the presentation portion information indicates that a user's action that causes a state change of the presentation portion has been performed.
  • ⁇ 15> The control when the environmental information indicates that the automobile is running and the presentation portion information indicates that the user's action that causes a state change of the presentation portion has been performed.
  • the presented information includes a moving image. When the processing information indicates that the processing state is playing the moving image and the presentation part information indicates that the state change of the presenting part has occurred, the control unit performs the moving image.
  • the information processing apparatus changes the presentation site where is presented. ⁇ 17>
  • the control unit changes the presentation part to which the presentation information is presented, whichever is ⁇ 1> to ⁇ 9>.
  • the information processing device described in. ⁇ 18> The presented information includes a sticky note presented in the discussion. When the processing information indicates that the processing state is under discussion and the presentation site information indicates that a state change of the presentation site has occurred, the control unit is presented with the sticky note.
  • the information processing apparatus according to ⁇ 10>, which changes the position within the range of the presentation site.
  • the control unit of the information processing device having the control unit The presentation part information regarding the state change of the presentation part to which the presentation information is presented, the processing information regarding the process for generating the presentation information, the user information regarding the user's response to the processing, and the environment regarding the environmental state of the presentation part.
  • An information processing method that controls a presentation state of the presentation information and at least one of the processing states based on at least one of the information.
  • Computer The presentation part information regarding the state change of the presentation part to which the presentation information is presented, the processing information regarding the process for generating the presentation information, the user information regarding the user's response to the processing, and the environment regarding the environmental state of the presentation part.
  • 11 Information processing device 21 Input unit, 23 Storage unit, 24 Output unit, 31 Graphics display processing unit, 32 Detection processing unit, 41 Input information analysis unit, 42 Application execution unit, 43 Display control unit, 51 Action execution unit, 52 Action definition storage unit, 53 Urgency definition storage unit, 54 App status definition storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術は、ユーザビリティの高い情報提示を行えるようにする情報処理装置、情報処理方法、及び、プログラムに関する。 提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御が行われる。本技術は、自動車の車内や会議室等の投影装置として適用することができる。

Description

情報処理装置、情報処理方法、及び、プログラム
 本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、ユーザビリティの高い情報提示を行う情報処理装置、情報処理方法、及び、プログラムに関する。
 特許文献1には、テーブル上における投影面のサイズに応じて投影画像のサイズ(ウインドウサイズ)を変更する技術が開示されている。
国際公開第2019/069575号
 提示情報が提示される提示部位の位置等の状態が変化した場合に、その状況は様々である。提示部位の状態が変化した場合に状況を考慮した対応を図ることが望ましい。
 本技術は、このような状況に鑑みてなされたものであり、ユーザビリティの高い情報提示を行えるようにする。
 本技術の一側面の情報処理装置、又は、プログラムは、提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御を行う制御部を有する情報処理装置、又は、そのような情報処理装置として、コンピュータを機能させるためのプログラムである。
 本技術の一側面の情報処理方法は、制御部を有する情報処理装置の前記制御部が、提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御を行う情報処理方法である。
 本技術の一側面の情報処理装置、情報処理方法、及び、プログラムにおいては、提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御が行われる。
本技術を適用した情報処理システムの一実施の形態の構成例を示したブロック図である。 アクション定義テーブルを例示した図である。 アプリ状態定義テーブルを例示した図である。 緊急度定義テーブルを例示した図である。 情報処理装置が行う処理例を説明するフローチャートである。 情報処理装置が車内の投影装置として適用された自動車の平面図である。 情報処理装置が車内の投影装置として適用された自動車の側面図である。 自動車の車内において、提示情報が投影される提示部位の位置を例示した図である。 後部座席のスライド可能なアームレストの動作を例示した図である。 天気予報アプリの提示情報がアームレストに投影された状態を例示した図である。 図1のアクション定義蓄積部に記憶されているアクション定義テーブルにおいて、“アプリ種類”フィールドが天気予報アプリであるレコードを例示した図である。 図11のレコードR11のアクションが実行されたときのアームレスト及び投影画像の状態を示した図である。 図11のレコードR13のアクションが実行されたときのアームレスト及び投影画像の状態を例示した図である。 音楽アプリの提示情報がアームレストに投影された状態を例示した図である。 図1のアクション定義蓄積部に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドが音楽アプリであるレコードを例示した図である。 図15のレコードR31のアクションが実行されたときのアームレスト及び投影画像の状態を例示した図である。 図15のレコードR33のアクションが実行されたときのアームレスト及び投影画像の状態を例示した図である。 図15のレコードR34のアクションが実行されたときのアームレスト及び投影画像の状態を例示した図である。 カーナビアプリの提示情報が助手席のダッシュボードに投影された状態を例示した図である。 図1のアクション定義蓄積部に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドがカーナビアプリ及びグルメアプリであるレコードを例示した図である。 図20のレコードR51のアクションが実行されたときのダッシュボード及び投影画像の状態を例示した図である。 図20のレコードR52のアクションが実行されたときのダッシュボード及び投影画像の状態を例示した図である。 グルメアプリの提示情報が助手席のダッシュボードに投影された状態を例示した図である。 図20のレコードR53のアクションが実行されたときのダッシュボード及び投影画像の状態を例示した図である。 運転席シートのヘッドレストの動作を例示した図である。 図25の状態Aにおいて動画アプリの提示情報がヘッドレストに投影された状態を例示した図である。 図1のアクション定義蓄積部に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドが動画アプリ又は天気予報アプリであるレコードを例示した図である。 図27のレコードR71のアクションが実行されたときのヘッドレスト及び投影画像の状態を例示した図である。 図27のレコードR72のアクションが実行されたときのヘッドレスト及び投影画像の状態を例示した図である。 動画アプリの提示情報が投影されたヘッドレストの投影画像を視聴しているユーザの視線方向を例示した図である。 動画アプリの提示情報が後部座席の右ドアガラスに投影された状態を例示した図である。 図1のアクション定義蓄積部52に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドが動画アプリであるレコードを例示した図である。 図32のレコードR91のアクションが実行されたときの右ドアガラス及び投影画像の状態を例示した図である。 地図アプリの提示情報が天井に投影された状態を例示した図である。 図1のアクション定義蓄積部に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドが地図アプリであるレコードを例示した図である。 図35のレコードR111又はレコードR112が実行されたときの車内及び投影画像の状態を例示した図である。 会議室等の室内におけるテーブルの天板を可動の提示部位として利用する場合のテーブルの配置について説明する図である。 2つのテーブルの連接された天板にディスカッションアプリの提示情報が投影された状態を例示した図である。 図1のアクション定義蓄積部に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドがディスカッションアプリであるレコードを例示した図である。 図39のレコードR121のアクションが実行されたときの天板及び投影画像の状態を例示した図である。 図39のレコードR122のアクションが実行されたときの天板及び投影画像の状態を例示した図である。 図39のレコードR122のアクションの他の例1を説明する図である。 図39のレコードR122のアクションの他の例2を説明する図である。 図39のレコードR122のアクションの他の例3が説明する図である。 一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 以下、図面を参照しながら本技術の実施の形態について説明する。
<<本技術を適用した情報処理装置の一実施の形態>>
 図1は、本技術を適用した情報処理装置の一実施の形態の構成例を示したブロック図である。
 図1において、情報処理装置11は、例えば自動車の車内や会議室等の室内において、所定の処理により生成した提示情報を可動の提示部位にプロジェクタにより投影させてユーザに提示する装置である。
 提示情報は、OS(Operating System)や所定のアプリケーション(以下、単にアプリという)の処理により生成される情報である。アプリ(処理)の種類は、天気予報アプリ、音楽アプリ、カーナビアプリ、グルメアプリ、動画アプリ、地図アプリ、及び、ディスカッションアプリ等、特定の種類に限定されない。
 提示部位が可動とは、提示情報が提示(投影)される提示部位が動く部材の表面であることを表す。例えば、自動車のドアガラスやサンルーフ(スライドパネル)、会議室等の移動可能なテーブル(天板)等が可動の提示部位となり得る。なお、提示情報が投影される提示部位が複数存在し、そのうちの一部の提示部位が、固定された部材の表面(不動の提示部位)であってもよい。
 情報処理装置11は、入力部21、演算処理部22、記憶部23、及び、出力部24を有する。
 入力部21は、提示情報が投影される「提示部位に関する情報」、「ユーザに関する情報」、及び、提示部位の「環境に関する情報」を取得し、入力情報として演算処理部22に供給する。
 入力部21の具体的な構成要素としては、提示部位が設けられる環境等に応じて適切なセンサ等が適宜選択されて用いられる。
 例えば、「提示部位に関する情報」及び「ユーザに関する情報」を取得するセンサ等は、提示部位やユーザの画像を取得する1又は複数の画像センサやデプスセンサなどであってよい。画像センサは、可視光カメラであってもよいし、赤外線カメラであってもよい。デプスセンサは、提示部位やユーザの三次元情報を取得するステレオカメラであってもよいし、ToF(time of flight)センサなどであってよい。
 また、「提示部位に関する情報」を取得するセンサ等は、提示部位を含む部材の位置を検出する位置センサであってもよい。
 なお、提示部位を含む部材という場合には、提示部位となる部材と一体的な部材のみでなく、提示部位となる部材と連動する部材、即ち、提示部位の状態変化に関係する部材を表す。
 また、提示部位を含む部材を電動等で動かすためのタッチセンサや操作スイッチ等の操作部(操作部はリモートコントローラの操作部である場合を含む。以下、同様)を有する場合、又は、演算処理部22におけるアプリ等の処理に対して所定の指示を行うための操作部を有する場合、操作部を操作するユーザの動作を示す情報は、「ユーザに関する情報」に該当する。このような操作部を有する場合に、「ユーザに関する情報」を取得するセンサ等として、操作部(の状態を検知する機構)が含まれていてもよい。
 「環境に関する情報」を取得するセンサ等は、加速度センサ、角速度センサ、GPS(Global Positioning System)などであってよい。例えば、提示部位となる部材が設けられている環境が自動車である場合に、「環境に関する情報」を取得するセンサ等は、自動車が走行中か停止中か等を検出するための加速度センサやGPS等であってよい。
 なお、情報処理装置11以外の他の装置で得られる情報を入力部21からの入力情報として演算処理部22に供給してもよい。
 演算処理部22は、入力部21からの入力情報等に基づいて、必要な情報(後述)を取得する。
 また、演算処理部22は、OSのプログラムを実行するとともに、ユーザに指定された1又は複数のアプリを実行し、OS及びアプリが生成する提示情報を出力部24に供給する。
 記憶部23は、演算処理部22が実行するOSや各種アプリ等のプログラムの実行に必要なデータ等を記憶する。
 出力部24は、演算処理部22から供給された提示情報を提示部位に投影させる1又は複数のプロジェクタを有する。プロジェクタは、投影方向が固定された固定式のプロジェクタであってもよいし、投影方向を可変できる可動式のプロジェクタであってもよい。
 ここで、演算処理部22は、プロジェクタが投影することができる最大の投影画像の領域(全投影領域)のうち、提示部位の位置及び大きさに対応したウインドウの領域の画像として提示情報をプロジェクタに供給する。
 また、演算処理部22は、プロジェクタに対する提示部位(投影面)の傾斜等に基づいて、投影ひずみを補正した提示情報の画像をプロジェクタに供給する。
 なお、演算処理部22により全投影領域のうちのウインドウの位置及び大きさを制御(変更)することで、1つのプロジェクタで複数の位置の提示部位に提示情報の画像を投影させるができ、提示部位の位置を変更できる。
 また、演算処理部22により全投影領域に複数のウインドウを設定することで、1つのプロジェクタで同一の提示情報の画像、又は、複数の異なる提示情報の画像を複数の提示部位に同時に投影させることができる。
 また、可動式のプロジェクタの場合には、演算処理部22は、プロジェクタの投影方向を制御することで1つのプロジェクタで複数の位置の提示部位に提示情報の画像を投影させてもよい。
 また、出力部24は、必要に応じて音楽や音声を出力するスピーカを構成要素として有する。演算処理部22は、アプリ等の処理により生成した音楽や音声等の音情報を出力部24のスピーカに供給する。
(演算処理部22の処理の詳細)
 続いて、演算処理部22の処理の詳細について説明すると、演算処理部22は、プログラムの実行により構築されるグラフィックス表示処理部31と検出処理部32とを機能ブロックとして有する。なお、検出処理部32は、記憶部23に記憶されたデータベースを含む。
 グラフィックス表示処理部31は、入力情報解析部41、アプリケーション実行部42、及び、表示制御部43を有する。
 入力情報解析部41は、入力部21からの入力情報を解析して、提示部位の状態変化に関する「提示部位情報」、アプリ等の処理に対するユーザの対応に関する「ユーザ情報」、及び、提示部位の環境の状態を示す「環境情報」を取得する。
 「提示部位情報」は、提示情報を投影する可動の提示部位が動いた場合の「提示部位の状態変化を示す情報」、又は、「提示部位の状態変化に関係するユーザの動作を示す情報」である。
 「提示部位の状態変化を示す情報」は、入力部21からの入力情報である「提示部位に関する情報」を入力情報解析部41が解析することにより取得される。
 「提示部位の状態変化に関係するユーザの動作を示す情報」は、提示部位を含む部材を電動等で動かすための操作部の操作を行うユーザの動作を示す情報、又は、提示部位を含む部材をユーザが手動で動かす動作を示す情報である。
 「提示部位の状態変化に関係するユーザの動作を示す情報」は、入力部21からの入力情報である「ユーザに関する情報」を入力情報解析部41が解析することにより取得される。
 「ユーザ情報」は、提示情報に対するユーザの状態(閲覧中か否か)を示す情報を含む。
 また、「ユーザ情報」は、「処理に対するユーザの操作を示す情報」を含む。
 「ユーザの操作を示す情報」は、更に、処理に対するユーザの操作内容を示す情報と、処理に対するユーザの操作の有無(操作中か否か)を示す情報とを含む。
 「ユーザ情報」は、入力部21からの入力情報である「ユーザに関する情報」を入力情報解析部41が解析することにより取得される。
 「環境情報」は、例えば、提示部位が設けられている環境が自動車の車内の場合には、自動車が走行中、又は、停車中の状態であることを示す情報である。
 「環境情報」は、入力部21からの入力情報である「環境に関する情報」を入力情報解析部41が解析することにより取得される。
 入力情報解析部41は、入力情報を解析して取得した「提示部位情報」、「ユーザ情報」、及び、「環境情報」を検出処理部32に供給する。なお、検出処理部32に供給される「ユーザ情報」は、具体的には、「ユーザの状態(閲覧中か否か)を示す情報」と、「処理に対するユーザの操作の有無(操作中か否か)を示す情報」である。
 また、入力情報解析部41は、「ユーザ情報」として、「処理に対するユーザの操作内容を示す情報」をアプリケーション実行部42に供給する。
 アプリケーション実行部42は、入力情報解析部41からの「処理に対するユーザの操作内容を示す情報」に基づいて、ユーザにより指定されたアプリを起動し、アプリが生成する提示情報を表示制御部43に供給する。
 また、アプリケーション実行部42は自身が実行している「処理(アプリ)の種類を示す情報」と、その「処理の状態(内容)を示す情報」とを検出処理部32に供給する。
 なお、「処理(アプリ)の種類を示す情報」と「処理の状態(内容)を示す情報」とは、提示情報を生成する処理(アプリ)に関する「処理情報」である。
 また、アプリケーション実行部42は、アプリの実行中において、入力情報解析部41からの「ユーザ情報」(「処理に対するユーザの操作内容を示す情報」)に基づいて、ユーザの操作内容に対応した処理を実行する。
 さらに、アプリケーション実行部42は、検出処理部32から指示された処理(後述)を実行する。
 表示制御部43は、アプリケーション実行部42からの提示情報を提示部位に投影する際の提示部位(領域)や提示形態等に関する提示状態の制御を行う。
 即ち、表示制御部43は、入力情報解析部41からの「処理に対するユーザの操作内容を示す情報」に基づいてユーザより指定された提示部位の位置及び大きさに対応したウインドウの領域の投影画像として提示情報の画像を出力部24のプロジェクタに供給する。
 また、表示制御部43は、アプリケーション実行部42からの提示情報を提示部位に投影する際の提示情報の提示形態(画像構成等)の制御を行う。
 更に、表示制御部43は、検出処理部32からの指示にしたがって、提示情報を投影させる提示部位の制御や、提示情報の提示形態の制御を行う。
 検出処理部32は、アクション実行部51、アクション定義蓄積部52、緊急度定義蓄積部53、及び、アプリ状態定義蓄積部54を有する。
 アクション実行部51は、「提示部位情報」、「処理情報」、「ユーザ情報」、及び、「環境情報」をグラフィックス表示処理部31の入力情報解析部41及びアプリケーション実行部42から取得する。
 アクション実行部51が入力情報解析部41から取得する「ユーザ情報」は、具体的には、「提示情報に対するユーザの状態(閲覧中か否か)を示す情報」と、「処理に対するユーザの操作の有無(操作中か否か)を示す情報」である。
 また、アクション実行部51は、取得した情報に基づいて、記憶部23に記憶されているデータベースから実行すべきアクションを検出する。
 また、アクション実行部51は、データベースから検出したアクションの処理の実行をグラフィックス表示処理部31(アプリケーション実行部42及び表示制御部43)に対して指示する。
 アクション定義蓄積部52は、アクション実行部51が実行する(グラフィックス表示処理部31に実行させる)アクションを検出するためのデータベースであるアクション定義テーブルのデータ(レコード)を蓄積している。
 図2は、アクション定義テーブルを例示した図である。アクション定義テーブルは、“アプリ種類”、“アプリ状態”、“トリガ”、“緊急度”、及び、“アクション”を各カラム(列)の項目(属性)として有する。アクション定義テーブルの各レコード(行)は、各カラムの項目に対応したデータを記憶するフィールドを有する。
 即ち、各レコードは、“アプリ種類”、“アプリ状態”、“トリガ”、“緊急度”、及び、“アクション”の内容を記憶するフィールドを有する。
 以下、各レコードの“アプリ種類”、“アプリ状態”、“トリガ”、“緊急度”、及び、“アクション”のデータを記憶したフィールドを“アプリ種類”フィールド、“アプリ状態”フィールド、“トリガ”フィールド、“緊急度”フィールド、及び、“アクション”フィールドという。
 “アプリ種類”フィールドは、グラフィックス表示処理部31(アプリケーション実行部42)が実行可能なアプリの種類を表す。“アプリ種類”フィールドには、例えば、天気予報アプリ、音楽アプリ、カーナビアプリ、動画アプリ、地図アプリ、及び、ディスカッションアプリなどのアプリの種類を示すデータが記憶される。
 アクション実行部51は、グラフィックス表示処理部31からの「処理情報」に基づいて、グラフィックス表示処理部31が実行しているアプリの種類を“アプリ種類”フィールドのデータとするレコードを検出する。
 より具体的には、アクション実行部51は、アプリケーション実行部42から供給された、「処理(アプリ)の種類を示す情報」により得られるアプリの種類を“アプリ種類”フィールドのデータとするレコードを検出する。
 “アプリ状態”フィールドは、アプリの処理の状態、アプリの処理に対するユーザの対応に関する状態、及び、提示部位の環境の状態のうちの少なくとも1つの状態を表す。
 アプリの処理の状態は、例えば、音楽アプリや動画アプリであれば、コンテンツの再生中、停止中等の処理の状態を表す。
 また、処理に対するユーザの対応に関する状態は、提示情報(投影画像)に対するユーザの状態(閲覧中か否か)や処理に対するユーザの操作の有無(操作中か否か)を表す。
 提示部位の環境の状態は、例えば、自動車の車内に設けられている部材が提示部位である場合には、自動車が走行中であるか否か等の環境の状態を表す。
 “アプリ状態”フィールドには、後述の図3のアプリ状態定義テーブルで定義されたアプリ状態のうちのいずれかのアプリ状態が記憶される。
 アクション実行部51は、アクション定義テーブルの各レコードのうち、“アプリ状態”フィールドのデータが、グラフィックス表示処理部31(アプリケーション実行部42)からの「処理情報」、「ユーザ情報」、及び、「環境情報」により得られた、処理の状態、処理に対するユーザの対応に関する状態、及び、提示部位の環境の状態に対して該当するレコードを検出する。
 “トリガ”フィールドは、アクションを実行する契機となるイベントであって、提示部位の状態変化、又は、提示部位の状態変化に関係するユーザの動作を表す。
 提示部位の状態変化は、例えば、可動の提示部位としての自動車のアームレストがスライドされた(位置が変化した)等の状態変化を表す。
 提示情報の提示部位の状態変化に関係するユーザの動作は、例えば、可動の提示部位としての自動車のアームレストをユーザがスライドさせるためにアームレストに手を掛ける動作を表す。
 アクション実行部51は、グラフィックス表示処理部31(入力情報解析部41)からの「提示部位情報」に基づいて、提示部位の状態変化、又は、提示部位の状態変化に関係するユーザの動作を“トリガ”フィールドのデータとするレコードを検出する。
 なお、“トリガ”フィールドのデータが表す提示部位の状態変化又はユーザの動作を単にトリガという。
 “緊急度”フィールドは、“トリガ”フィールドのデータが表すトリガにより提示部位の状態が変化した場合に何も対応しないときの変化後の状態が生理に関わる度合いを表す。
 “アクション”フィールドは、“トリガ”フィールドのデータが表すトリガが発生した場合に検出処理部32が実行する(検出処理部32がグラフィックス表示処理部31に実行させる)処理を表す。
 “アクション”フィールドは、例えば、提示部位(投影する領域)の移動、変更等の提示部位の制御、提示情報の投影画像の構成(レイアウト)や警告情報の追加等の提示情報の提示形態の制御、及び、アプリの処理の状態の制御のうちの少なくとも1つの制御の内容を表す。なお、各制御の内容として、何もしないという場合も含まれ、全ての制御の内容が何もしないという場合には、“アクション”フィールドは、何もしないという内容になる。
 以上、アクション定義テーブルの各レコードは、グラフィックス表示処理部31が“アプリ種類”フィールドのアプリを実行しており、かつ、“アプリ状態”フィールドのアプリ状態のときに、“トリガ”フィールドのトリガが発生すると、“アクション”フィールドのアクションを実行するというアクションの実行条件を定める。
 また、アクション定義テーブルのいずれかのレコードの“アプリ種類”フィールドのデータが表すアプリを、アクション定義蓄積部52に定義された(アクションが定義された)アプリといい、アクション定義テーブルのいずれかのレコードの“トリガ”フィールドのデータが表すトリガを、アクション定義蓄積部52に定義された(アクションが定義された)トリガという。
 図1において、アプリ状態定義蓄積部54は、図2のアクション定義テーブルの“アプリ状態”フィールドのデータの種類を定義するアプリ状態定義テーブルのデータを蓄積している。
 図3は、アプリ状態定義テーブルを例示した図である。アプリ状態定義テーブルは、“アプリ状態”と、“意味”とをカラム(列)の項目(属性)として有する。アプリ状態定義テーブルの各レコード(行)は、各カラムの項目に対応したデータを記憶するフィールドを有する。
 即ち、アプリ状態定義テーブルの各レコードは、“アプリ状態”、“意味”の内容を記憶する“アプリ状態”フィールド、及び、“意味”フィールドを有する。
 “アプリ状態”フィールドには、例えば、“操作中”、“閲覧中”、“再生中”、及び、“通常”の4種類のアプリ状態が記憶される。“操作中”、“閲覧中”、“再生中”、及び、“通常”の意味は、“意味”フィールドに記憶される。図3のアプリ状態定義テーブルによれば、“アプリ状態”のフィールドにおける“操作中”、“閲覧中”、“再生中”、及び、“通常”は、次のような意味を表す。
 “操作中”は、アプリに対するユーザの操作が行われている状態を表す。
 “閲覧中”は、アプリの提示情報(投影画像)をユーザが閲覧している状態を表す。
 “再生中”は、アプリがコンテンツを再生している状態を表す。
 “通常”は、他の種類のアプリ状態に該当しない状態を表す。
 なお、アプリ状態定義テーブルにおける“意味”フィールド及びデータは必ずしもテーブルデータとして記憶されている必要はない。
 また、図3のアプリ状態定義テーブルでは、4種類のアプリ状態のみ例示したが、更に多くの種類のアプリ状態が定義されていてもよい。下記において例示する図15、図20、及び、図39のアクション状態テーブルにおける“アプリ状態”フィールドには、“操作中”、“閲覧中”、“再生中”、及び、“通常”を更に細分化したアプリ状態が括弧書きで示される。
 図1において、緊急度定義蓄積部53は、図2のアプリ状態定義テーブルの“緊急度”を定義する緊急度定義テーブルを蓄積(保存)している。
 図4は、緊急度定義テーブルを例示した図である。緊急度定義テーブルは、“緊急度”と、“意味”とをフィールド(列)の項目(属性)として有する。緊急度定義テーブルの各レコード(行)には、各フィールドの項目に対応したデータが記憶される。
 “緊急度”フィールドには、“Critical”、“Major”、“Minor”、及び、“Trivial”の4種類のデータが例示されている。“Critical”、“Major”、“Minor”、及び、“Trivial”の意味は、“意味”のフィールドに記憶される。図4のアプリ状態定義テーブルによれば、“緊急度”のフィールドの“Critical”、“Major”、“Minor”、及び、“Trivial”は、次のような意味を表す。
 “Critical”は、すぐに図2の“アクション”フィールドのデータが表すアクションを実行しないと生理に関わる状態であることを表す。
 “Major”は、長時間同じ状態が継続すると生理に関わる可能性があることを表す。
 “Minor”は、ユーザに不便をもたらす状態であることを表す。
 “Trivial”は、何らアクションを実行しなくてもよい状態であることを表す。
 ここで、アクション実行部51が図2のアクション定義テーブルを用いて実行すべきアクションを検出する際に、“緊急度”フィールドのデータは参照されないため、図2のアクション定義テーブルの“緊急度”のカラム(列)を設けず、図4の緊急度定義テーブルによる緊急度の定義も行わないことが可能である。
 ただし、例えば、図2のアクション定義テーブルの“アプリ種類”フィールドのアプリの種類が相違するレコードであっても、“アプリ状態”フィールド、“トリガ”フィールド、及び、“緊急度”フィールドの各々データが共通する場合は、“アクション”フィールドのデータを共通にすることができる。
 そこで、例えば、アクション定義テーブルに新たなアプリを追加する際に“アプリ状態”フィールドのアプリ状態において“トリガ”フィールドのトリガが発生した場合の“緊急度”フィールドの緊急度を緊急度定義テーブルに定義された緊急度の中から選択して設定することで、自動的に“アクション”フィールドのデータが決定されるようにすることができる。
 自動的に決定される“アクション”フィールドのデータは、“アプリ状態”フィールド、“トリガ”フィールド、及び、“緊急度”フィールドのデータが共通する他のアプリの“アクション”フィールドのデータであってもよいし、“アプリ状態”フィールド、“トリガ”フィールド、及び、“緊急度”フィールドの各々データの組合せに対して事前に決められた“アクション”フィールドのデータであってもよい。これによって、“アクション”フィールドのアクションをアプリごとに検討してアクション定義テーブルを作成する手間を低減でき、アクション定義テーブルのアプリに新たなアプリを追加することが容易となる。
 なお、図4の緊急度定義テーブルにおける“意味”フィールド及びデータは必ずしもテーブルデータとして記憶されている必要はない。
 図5は、情報処理装置11が行う処理例を説明するフローチャートである。
 ステップS11では、グラフィックス表示処理部31は、提示情報を出力部24に供給して提示情報の投影を開始する。処理はステップS11からステップS12に進む。
 ここで、グラフィックス表示処理部31は、ユーザが所定の提示部位への投影画像の投影を指示するスイッチ操作やジェスチャ等を行ったことを入力部21からの入力情報に基づいて検出した場合に投影画像の投影を開始する。また、グラフィックス表示処理部31は、投影を開始した際に、例えば、起動するアプリをユーザが選択するための案内画像を初期の投影画像として提示部位に投影させる。
 ステップS12では、グラフィックス表示処理部31は、入力部21からの入力情報(「ユーザに関する情報」)により取得したユーザの操作(「ユーザの操作内容を示す情報」)に基づいてユーザにより選択されたアプリを起動する。
 そして、グラフィックス表示処理部31は、起動したアプリが生成する提示情報を出力部24のプロジェクタに供給して提示情報を提示部位に投影させる。処理はステップS12からステップS13に進む。
 ステップS13では、グラフィックス表示処理部31は、ユーザの操作に基づいて、ユーザにより投影情報の投影の終了操作が行われたか否かを判定する。
 ステップS13において、終了操作が行われたと判定された場合には、本フローチャートの処理が終了する。
 ステップS13において、終了操作が行われていないと判定された場合には、処理はステップS13からステップS14に進む。
 ステップS14では、グラフィックス表示処理部31は、入力部21により入力情報を取得する。そして、グラフィックス表示処理部31は、取得した入力情報を解析して、「提示部位情報」、及び、「ユーザ情報」、及び、「環境情報」を取得する。
 グラフィックス表示処理部31は、入力情報を解析して取得した「提示部位情報」、「ユーザ情報」、及び、「環境情報」と、グラフィックス表示処理部31が実行している処理(アプリ)の種類を示す情報、及び、グラフィックス表示処理部31が実行している処理の状態を示す情報とを「処理情報」として検出処理部32に供給する。
 即ち、グラフィックス表示処理部31は、「提示部位情報」、「処理情報」、「ユーザ情報」、及び、「環境情報」を検出処理部32に供給する。処理はステップS14からステップS15に進む。
 ステップS15では、検出処理部32は、アクション定義蓄積部52に定義されたいずれかのアプリをグラフィックス表示処理部31が実行しているか否かを判定する。
 即ち、検出処理部32は、ステップS14でグラフィックス表示処理部31から供給された「処理情報」に基づいて、グラフィックス表示処理部31が実行しているアプリが図2のアクション定義テーブルのいずれかのレコードの“アプリ種類”フィールドのデータとして存在するか否かを判定する。
 ステップS15において、アクション定義蓄積部52に定義されたアプリをグラフィックス表示処理部31が実行していないと判定された場合、処理はステップS15からステップS13に戻り、ステップS13乃至ステップS15を繰り返す。
 一方、ステップS15において、アクション定義蓄積部52に定義されたアプリをグラフィックス表示処理部31が実行していると判定された場合、処理はステップS15からステップS16に進む。
 ステップS16では、検出処理部32は、アクション定義蓄積部52に定義されたいずれかのトリガが検出されたか否かを判定する。
 即ち、検出処理部32は、ステップS14で取得した「提示部位情報」に基づいて提示部位の状態変化、又は、提示部位の状態変化に関係するユーザの動作を取得する。そして、検出処理部32は、取得した提示部位の状態変化、又は、ユーザの動作が、図2のアクション定義テーブルのグラフィックス表示処理部31が実行しているアプリについてのいずれかのレコードにおいて、“トリガ”フィールドのデータが表すトリガとして存在するか否かを判定する。
 ステップS16において、アクション定義蓄積部52に定義されたトリガが発生していないと判定された場合、処理はステップS16からステップS13に戻り、ステップS13乃至ステップS16の処理を繰り返す。
 一方、ステップS16において、アクション定義蓄積部52に定義されたトリガが検出されたと判定された場合、処理はステップS16からステップS17に進む。
 ステップS17では、検出処理部32は、グラフィックス表示処理部31が実行しているアプリ及びステップS16において検出されたトリガについての図2のアクション定義テーブルのレコードのうち、ステップS14で取得した「処理情報」、「ユーザ情報」、及び、「環境情報」により得られるアプリ状態を“アプリ状態”フィールドのデータとするレコードを検出する。
 そして、検出処理部32は、検出したレコードの“アクション”フィールドのアクションをアプリ状態に応じたアクションとしてグラフィックス表示処理部31に実行させる。処理はステップS17からステップS13に戻り、ステップS13乃至ステップS17を繰り返す。
 ステップS13において、グラフィックス表示処理部31は、終了操作が行われたと判定された場合には、本フローチャートの処理が終了する。
<<情報処理装置11の適用例1>>
 図1の情報処理装置11の適用例1として、自動車の車内の可動の提示部位に各種アプリの提示情報を投影させる投影装置として情報処理装置11を適用する場合について説明する。
 図6及び図7は、情報処理装置11が車内の投影装置として適用された自動車71の平面図及び側面図である。
 図6及び図7において、自動車71の車内には、図1の情報処理装置11の出力部24であるプロジェクタ81、82、83、84が設置される。
 プロジェクタ81は、車内の後部における上下左右方向の中心付近に設置される。プロジェクタ82は、車内の後部における右側の側面上部に設置される。プロジェクタ83は、車内の後部における左側の側面上部に設置される。プロジェクタ84は、車内の天井の前側部分に設置される。
 図8は、自動車71の車内91において、提示情報が投影される提示部位(投影面)の位置を例示した図である。
 自動車71の車内91において、天井92が提示部位として用いられ、天井92にはプロジェクタ81からの投影画像93が投影される。なお、自動車71がサンルーフを装備している場合には、サンルーフを遮光するスライドパネル(以下、単にサンルーフという)が可動の提示部位として用いられる。
 また、後部座席の左ドアガラス94が可動の提示部位として用いられ、左ドアガラス94にはプロジェクタ82からの投影画像95が投影される。
 また、後部座席の右ドアガラス96が可動の提示部位として用いられ、右ドアガラス96にはプロジェクタ83からの投影画像97が投影される。
 天井92、並びに、後部座席の左ドアガラス94及び右ドアガラス96以外にも、後部座席中央のアームレスト98、運転席シートのヘッドレスト99、助手席シートのヘッドレスト100、助手席のドアガラス101、及び、ダッシュボード(助手席グローブボックスの扉)102等が可動の提示部位として用いられる。例えば、アームレスト98には、プロジェクタ81乃至84のうちのいずれかからの投影画像が投影される。
 運転席シートのヘッドレスト99及び助手席シートのヘッドレスト100には、プロジェクタ81乃至83のいずれかからの投影画像が投影される。
 助手席のドアガラス101及びダッシュボード102には、プロジェクタ84からの投影画像が投影される。
<後部座席のスライド可能なアームレスト98が可動の提示部位として用いられる場合>
(天気予報アプリの提示情報が投影される場合)
 図9は、後部座席のスライド可能なアームレスト98の動作を例示した図である。
 図9の状態A及び状態Bにおいて、アームレスト98は後部座席121の中央に設置された矩形状の基台122の上部を前後方向にスライド可能に設けられる。状態Aでは、アームレスト98が、基台122に対する可動範囲の前端の標準位置に配置されている。状態Bでは、アームレスト98は、基台122に対する可動範囲の後方にスライドされて基台122の収納部123が開口されている。
 図10は、天気予報アプリの提示情報がアームレスト98に投影された状態を例示した図である。
 ユーザがアームレスト98を提示部位として天気予報アプリの提示情報を投影させる操作を行うと、アームレスト98には天気予報アプリの提示情報の投影画像141が例えば図6のプロジェクタ82により投影される。投影画像141は、例えば、アームレスト98の上面の前端側に投影される。
 そして、ユーザがアームレスト98を後方にスライドさせると、トリガが発生する。
 図11は、図1のアクション定義蓄積部52に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドが天気予報アプリであるレコードを例示した図である。
 ユーザが、天気予報アプリに対して操作中の場合に、アームレスト98を図9の状態Bのように後方にスライドさせた(ずらした)ときには、アプリ種類は天気予報アプリであり、アプリ状態は操作中であり、トリガはユーザがアームレスト98をずらす動作又はアームレスト98の位置の変化である。
 この場合、状況は、図11のレコードR11に該当するので、図1の検出処理部32は、図11のレコードR11の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図12は、図11のレコードR11のアクションが実行されたときのアームレスト98及び投影画像の状態を例示した図である。
 レコードR11のアクションが実行された場合、図12のように、天気予報アプリの提示情報である投影画像141はアームレスト98と共に後方にスライドする。
 即ち、天気予報アプリの提示情報を投影するウインドウ(以下、アプリウインドウという)の領域がアームレスト98と共に後方にスライドし、提示情報の投影画像141がアームレスト98と共に後方にスライドする。これにより、天気予報アプリの提示情報の全体が欠落することなくアームレスト98の表面の前端側に投影される。
 ユーザが天気予報アプリに対して操作中の場合に、アームレスト98がスライドしたときには、引き続きユーザが天気予報アプリを利用すると考えられる。図12のようにアームレスト98のスライドとともにアプリウインドウがスライドし、天気予報アプリの提示情報の全体が投影画像141として投影されることでユーザビリティが維持される。
 次に、ユーザが、天気予報アプリに対して操作中ではなく、天気予報アプリの提示情報である投影画像141の閲覧中の場合に、アームレスト98を図9の状態Bのように後方にスライドさせた(ずらした)ときには、アプリ種類は天気予報アプリであり、アプリ状態は閲覧中であり、トリガはユーザがアームレスト98をずらす動作又はアームレスト98の位置の変化である。
 この場合、状況は、図11のレコードR12に該当するので、図1の検出処理部32は、図11のレコードR12の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 レコードR12のアクションが実行された場合、レコードR11の場合と同様に、天気予報アプリのアプリウインドウがアームレスト98と共に後方にスライドし、図12と同様に、投影画像141がアームレスト98と共に後方にスライドする。
 ユーザが天気予報アプリに対して閲覧中の場合に、アームレスト98がスライドしたときには、引き続きユーザが天気予報アプリを利用すると考えられる。図12のようにアームレスト98のスライドとともにアプリウインドウがスライドし、天気予報アプリの提示情報の全体が投影画像141として投影されることでユーザビリティが維持される。
 次に、ユーザが、天気予報アプリに対して操作中ではなく、かつ、天気予報アプリの提示情報である投影画像141の閲覧中でもない場合に、アームレスト98を図9の状態Bのように後方にスライドさせた(ずらした)ときには、アプリ種類は天気予報アプリであり、アプリ状態は通常であり、トリガはユーザがアームレスト98をずらす動作又はアームレスト98の位置の変化である。
 この場合、状況は、図11のレコードR13に該当するので、図1の検出処理部32は、図11のレコードR13の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図13は、図11のレコードR13のアクションが実行されたときのアームレスト98及び投影画像141の状態を例示した図である。
 レコードR13のアクションにおいて、検出処理部32は、アームレスト98がスライドされたことに対しては何もしない。これによって、天気予報アプリの提示情報を投影するアプリウインドウが変更されず、図13のように投影画像141がアームレスト98と共にスライドしない。したがって、天気予報アプリの提示情報の一部が欠落する。
 ただし、ユーザが操作中でも閲覧中でもないため、天気予報アプリの提示情報の投影画像141の一部が一時的に欠落しても特別な不具合は生じない。ユーザはアームレスト98を図9の状態Aの標準位置に戻すことで天気予報アプリの提示情報の全体を閲覧することができる。
 なお、図11のアクション定義テーブルのレコードR11乃至R13の“アクション”フィールドのアクションは、“アプリ状態”フィールドと“トリガ”フィールドとがレコードR11乃至R13と同様の組合せに分類できる任意の種類のアプリと任意の提示部位(自動車にも限定されない)のアクションとして適用できる。
 例えば、画像閲覧アプリの提示情報がアームレスト98に投影されている場合、画像閲覧アプリの提示情報がアームレスト98以外の提示部位であってアームレスト98と同様の状態変化(スライドによる状態変化に限らない)が生じる提示部位に投影されている場合等においても、レコードR11乃至R13の“アクション”フィールドのアクションを適用できる。
(音楽アプリの提示情報が投影される場合)
 図14は、音楽アプリの提示情報がアームレスト98に投影された状態を例示した図である。
 図9の状態Aにおいて、ユーザがアームレスト98を提示部位として音楽アプリの提示情報を投影させる操作を行うと、アームレスト98には音楽アプリの提示情報の投影画像161が例えば図6のプロジェクタ82により投影される。投影画像161は、例えば、アームレスト98の上面の前端側に投影される。
 図15は、図1のアクション定義蓄積部52に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドが音楽アプリであるレコードを例示した図である。
 音楽アプリが所定の音楽等を一定音量以上で再生中の場合に、ユーザがアームレスト98を後方にスライドさせようと(ずらそうと)してアームレスト98に手を掛けたときには、アプリ種類は音楽アプリであり、アプリ状態は一定音量以上での再生中であり、トリガはユーザがアームレスト98に手を掛ける動作(アームレスト98をずらそうとする所作)である。
 この場合、状況は、図15のレコードR31に該当するので、図1の検出処理部32は、図15のレコードR31の“アクション”フィールドのアクションをグラフィックス表示処理部31に実行させる。
 図16は、図15のレコードR31のアクションが実行されたときのアームレスト98及び投影画像161の状態を例示した図である。
 レコードR31のアクションが実行された場合、図16のように、音楽アプリの提示情報の投影画像161に「スライドさせると操作できなくなり危険です!」等の文字画像の警告情報162が重畳された画像が投影される。
 警告情報162は、アームレスト98がスライドされて音量の調整ができなくなるという不測の事態を未然に抑止する。即ち、音楽アプリが一定音量以上で再生されている場合に音量の調整の操作が不能になると、楽曲によっては急激に大音量になることがある。ユーザが、アームレスト98がスライドさせると、音楽アプリの提示情報の一部が欠落し、音量調整の操作が不能になる可能性があるため、警告情報162がアームレスト98をスライドさせないようにユーザに注意を促す。
 ユーザが、図16のように警告情報162が提示されているにもかかわらず、アームレスト98を図9の状態Bのように後方にスライドさせた(ずらした)場合、トリガが発生する。この場合のアプリ種類は音楽アプリであり、アプリ状態は一定音量以上での再生中であり、トリガはユーザがアームレスト98をずらす動作又はアームレスト98の位置の変化である。
 この場合、状況は、図15のレコードR32に該当するので、図1の検出処理部32は、図15のレコードR32の“アクション”フィールドのアクションをグラフィックス表示処理部31に実行させる。
 レコードR32のアクションが実行された場合、音楽アプリによる再生が一時停止の状態に変更される。なお、図では示さないが音楽アプリのアプリウインドウの変更は行われず、音楽アプリの提示情報の一部が欠落する。
 次に、音楽アプリが所定の音楽等を一定音量未満で再生中の場合に、ユーザがアームレスト98を図9の状態Bのように後方にスライドさせた(ずらした)ときには、アプリ種類は音楽アプリであり、アプリ状態は一定音量未満での再生中であり、トリガはユーザがアームレスト98をずらす動作又はアームレスト98の位置の変化である。
 この場合、状況は、図15のレコードR33に該当するので、図1の検出処理部32は、図15のレコードR33の“アクション”フィールドのアクションをグラフィックス表示処理部31に実行させる。
 図17は、図15のレコードR33のアクションが実行されたときのアームレスト98及び投影画像の状態を例示した図である。
 レコードR33のアクションが実行された場合、音楽アプリの提示情報を投影するアプリウインドウは変更されず、アームレスト98がスライドした位置においてアプリウインドウの範囲内でアームレスト98に投影可能な位置にアイコン163が投影される。また、例えば、アイコン163上での空中のジェスチャによる操作が有効になり、ユーザはジェスチャでの音楽の再生の停止が可能となる。
 音楽アプリの提示情報の投影画像161からアイコン163への変更は、アームレスト98がスライドされたことにより、アームレスト98に音楽アプリの提示情報の全体を投影する領域がなくなる場合に特に有効である。
 次に、音楽アプリが音楽等の再生中でない場合に、ユーザがアームレスト98を図9の状態Bのように後方にスライドさせた(ずらした)ときには、アプリ状態は音楽アプリであり、アプリ状態は通常であり、トリガはユーザがアームレスト98をずらす動作又はアームレスト98の位置の変化である。
 この場合、状況は、図15のレコードR34に該当するので、図1の検出処理部32は、図15のレコードR34の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図18は、図15のレコードR34のアクションが実行されたときのアームレスト98及び投影画像161の状態を例示した図である。
 レコードR34のアクションにおいては、検出処理部32は、アームレスト98がスライドされたことに対しては何もしない。これによって、音楽アプリの提示情報を投影するアプリウインドウが変更されず、図18のように投影画像161がアームレスト98と共にスライドしない。したがって、音楽アプリの提示情報の一部が欠落する。
 なお、図15のアクション定義テーブルのレコードR31乃至R34の“アクション”フィールドのアクションは、“アプリ状態”フィールドと“トリガ”フィールドとがレコードR31乃至R34と同様の組合せに分類できる任意の種類のアプリと任意の提示部位(自動車にも限定されない)のアクションとして適用できる。
<助手席の開閉動作可能なダッシュボード102が可動の提示部位として用いられる場合>
(カーナビアプリの提示情報が投影される場合)
 図19は、カーナビアプリの提示情報が助手席のダッシュボード102に投影された状態を例示した図である。
 図19において、助手席のダッシュボード102には、例えば、図6及び図7のプロジェクタ84によりカーナビアプリの提示情報が投影画像181として投影される。図19のようにダッシュボード102が閉じられている状態において、ユーザが、ダッシュボード102を開閉させる開閉ボタン191を押すと、トリガが発生する。
 図20は、図1のアクション定義蓄積部52に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドがカーナビアプリ及びグルメアプリであるレコードを例示した図である。
 図19のようにカーナビアプリの提示情報の投影画像181がダッシュボード102に投影されている状態において、自動車71が走行中の場合に、ユーザが、ダッシュボード102の開閉ボタン191を押したときには、アプリ種類はカーナビアプリであり、アプリ状態は走行中であり、トリガはユーザがダッシュボード102の開閉ボタン191を押した動作である。
 この場合、状況は、図20のレコードR51に該当するので、図1の検出処理部32は、図20のレコードR51の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図21は、図20のレコードR51のアクションが実行されたときのダッシュボード102及び投影画像181の状態を例示した図である。
 図21のようにユーザの手192が開閉ボタン191を押すとトリガが発生し、ユーザがレコードR51のアクションが実行される。
 そして、レコードR51のアクションが実行された場合、カーナビアプリの提示情報の投影画像181に「開くとカーナビが見えなくなり、運転に支障を来すため危険です!」又は「停車するまで開けません」等の文字画像の警告情報182が重畳された画像が投影される。
 警告情報182は、ダッシュボード102を開けるとカーナビアプリの提示情報が見えなくなるため、ダッシュボード102を開けないように注意を促す。
 また、自動車71が走行中のときは、ダッシュボード102が閉状態にロックされ、開閉ボタン191が押されても開かない状態に制御される。ダッシュボード102のロック機構の制御は、例えば、検出処理部32がロック機構に制御信号を送信して行う。
 なお、ユーザが開閉ボタン191を押した動作をトリガとするのではなく、開閉ボタン191にユーザの手(指)が近づく動作をトリガとしてもよい。
 また、運転者ではなく助手席のユーザが開閉ボタン191を押した場合には、レコードR51のアクションを実行せず、何もしないアクションとしてダッシュボード102が開くようにしてもよい。
 次に、カーナビアプリの提示情報の投影画像181がダッシュボード102に投影されている状態において、自動車71が停車中の場合に、ユーザがダッシュボード102の開閉ボタン191を押したときには、アプリ種類はカーナビアプリであり、アプリ状態は停車中であり、トリガはユーザがダッシュボード102の開閉ボタン191を押した動作である。
 この場合、状況は、図20のレコードR52に該当するので、図1の検出処理部32は、図20のレコードR52の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図22は、図20のレコードR52のアクションが実行されたときのダッシュボード102及び投影画像181の状態を例示した図である。
 レコードR52のアクションにおいては、検出処理部32は、開閉ボタン191が押されたことに対しては何もしない。これによって、ダッシュボード102が上方に開く。
 ダッシュボード102が開くと、ダッシュボード102により閉鎖されていた収容部193が開口される。また、ダッシュボード102に投影されていた投影画像181が、収容部193内に投影される。ただし、収容部193に物が収容されている場合にはそれらの物の表面に投影され、必ずしも平坦な投影面に投影されるとは限らない。
 なお、図20のアクション定義テーブルのレコードR51及びR52の“アクション”フィールドのアクションは、“アプリ状態”フィールドと“トリガ”フィールドとがレコードレコードR51及びR52と同様の組合せに分類できる任意の種類のアプリと任意の提示部位(自動車にも限定されない)のアクションとして適用できる。
(グルメアプリの提示情報が投影される場合)
 図23は、グルメアプリの提示情報が助手席のダッシュボード102に投影された状態を例示した図である。
 図23のようにグルメアプリの提示情報の投影画像201がダッシュボード102に投影された状態において、ユーザが、ダッシュボード102を開閉させる開閉ボタン191を押したとする。この場合のアプリ種類はグルメアプリであり、アプリ状態は通常であり、トリガはユーザがダッシュボード102の開閉ボタン191を押した動作である。
 この場合、状況は、図20のレコードR53に該当するので、図1の検出処理部32は、図20のレコードR53の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図24は、図20のレコードR53のアクションが実行されたときのダッシュボード102及び投影画像201の状態を例示した図である。
 レコードR52のアクションにおいて、検出処理部32は、開閉ボタン191が押されたことに対しては何もしない。これによって、ダッシュボード102が上方に開く。
 ダッシュボード102が開くと、ダッシュボード102により閉鎖されていた収容部193が開口される。また、ダッシュボード102に投影されていた投影画像201が、収容部193内に投影される。
 グルメアプリの提示情報がダッシュボード102に投影されている場合は、ダッシュボード102が開いてグルメアプリの提示情報が閲覧できない状態になったとしても運転に支障を来さないため、ユーザの操作にしたがってダッシュボード102が開く。
<可動のヘッドレスト99が可動の提示部位として用いられる場合>
(カーナビアプリの提示情報が投影される場合)
 図25は、運転席シート221のヘッドレスト99の動作を例示した図である。
 図25の状態A及び状態Bにおいて、運転席シート221のヘッドレスト99は、運転席シート221の背もたれの傾き調整、又は、ヘッドレスト99の傾き調整によって、前後方向の傾きが変化する。
 状態Aは、状態Bよりもヘッドレスト99が前側に傾いた状態を示し、状態Bは、状態Aよりも後側に傾いている状態を示す。
 状態Aにおいて、ユーザがヘッドレスト99の背面側(以下、単にヘッドレスト99という)を可動の提示部位として動画アプリの提示情報を投影させる操作を行うと、ヘッドレスト99には動画アプリの提示情報が例えば図6及び図7のプロジェクタ83により投影される。
 図26は、図25の状態Aにおいて動画アプリの提示情報がヘッドレスト99に投影された状態を例示した図である。
 図26において、動画アプリの提示情報は投影画像241としてヘッドレスト99に投影される。投影画像241は、動画が提示される再生部242と、動作の再生や停止を操作する操作部243とを有する。図25の状態Aのようにヘッドレスト99が前側に傾斜している状態(後側への所定の傾斜角度よりも前側に傾斜した角度の状態)では、再生部242が操作部243よりも下側に投影される。
 図26のようにヘッドレスト99に投影画像241が投影された状態において、ユーザ(運転者等)が、ヘッドレスト99又は運転席シート221を後側に倒す(リクライニングを倒す)と、トリガが発生する。
 図27は、図1のアクション定義蓄積部52に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドが動画アプリ又は天気予報アプリであるレコードを例示した図である。
 動画アプリが所定の動画の再生中の場合に、ユーザが、図25の状態Aから状態Bのようにリクライニングを倒したときには、アプリ種類は動画アプリであり、アプリ状態は再生中であり、トリガはユーザがリクライニングを倒す動作、又は、運転席シート221若しくはヘッドレスト99の傾きの変化である。
 この場合、状況は、図27のレコードR71に該当するので、図1の検出処理部32は、図27のレコードR71の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図28は、図27のレコードR71のアクションが実行されたときのヘッドレスト99及び投影画像241の状態を例示した図である。
 レコードR71のアクションが実行された場合、ヘッドレスト99の傾きに応じて投影画像241における再生部242と操作部243の位置が上下に入れ替わる。
 ヘッドレスト99が図25の状態Bのように後側に傾斜した場合(後側に所定の傾斜角度より傾斜した場合)、図28のように投影画像241における再生部242が操作部243よりも上側に投影される。これにより、再生部242を閲覧するユーザの視線方向がリクライニングを倒す前から大きく変わることが抑止される。
 一方、動画アプリが再生中でないときに、ユーザが、図25の状態Aから状態Bのようにリクライニングを倒した場合、この場合のアプリ種類は動画アプリであり、アプリ状態は通常であり、トリガ状態はユーザがリクライニングを倒す動作、又は、運転席シート若しくはヘッドレスト99の傾きの変化である。
 この場合、状況は、図27のレコードR72に該当するので、図1の検出処理部32は、図27のレコードR72の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図29は、図27のレコードR72のアクションが実行されたときのヘッドレスト99及び投影画像241の状態を例示した図である。
 レコードR72のアクションにおいては、検出処理部32は、リクライニングが倒されたことに対しては何もしない。したがって、投影画像241における再生部242と操作部243との配置は、図26の場合と同じく、再生部242が下で、操作部243が上である。
 なお、動画アプリが再生中でないときであっても、リクライニングが倒された場合には、動画アプリが動画の再生中のときと同様に、再生部242が操作部243よりも上側に投影されるようにしてもよい。
 図30は、動画アプリの提示情報が投影されたヘッドレスト99の投影画像241を視聴しているユーザ253の視線方向254を例示した図である。
 図30のAは、ヘッドレスト99が図25の状態Aのように前方に傾斜している状態において、ヘッドレスト99の投影画像241が、下側に再生部242、上側に操作部243が配置されたレイアウトとなっているときのユーザ253の視線方向254を表す。図30のAでは、ユーザ253の視線方向254は例えば略水平方向である。
 図26、図28、及び、図29には、フロントガラス251と不透過部分252(インストルメントパネル又はダッシュボード)との境界が示されており、図30のAの視線方向254におけるユーザ253の視界は図26のようになる。
 図26では、ユーザの周辺視野には、フロントガラス251を介した車外の風景が多くの含まれるため、ユーザは再生部242の動画を見ながらも自動車71のスピードや揺れを意識することができ、車酔いをしにくい。
 図30のBは、ヘッドレスト99が図25の状態Bのように後方に傾斜している状態において、ヘッドレスト99の投影画像241が、図30のAと同じく下側に再生部242、上側に操作部243が配置されたレイアウトとなっているときのユーザ253の視線方向254を表す。
 図30のBでは、ユーザ253の視線方向254は下向きとなり、ユーザ253の視界は図29のようになる。図29では、ユーザの周辺視野には、フロントガラス251を介した車外の風景が少なくなるため、車酔いをしやすくなる。
 図30のCは、ヘッドレスト99が図25の状態Bのように後方に傾斜している状態において、ヘッドレスト99の投影画像241が、上側に再生部242、下側に操作部243が配置されたレイアウトとなっているときのユーザ253の視線方向254を表す。
 図30のCでは、ユーザ253の視線方向254は図30のAと同様に略水平となり、ユーザ253の視界は図28のようになる。図28は、上側に再生部242、下側に操作部243が配置された投影画像241のレイアウトを説明する図であるため、ユーザの周辺視野の様子が的確には表現されていない。しかしながら、再生部242の中心付近を視界の中心とすると、ユーザの周辺視野には、図30のAの場合と同様に、フロントガラス251を介した車外の風景が多く含まれるため、車酔いをしにくい。
 そこで、動画の再生中にリクライニングが倒された場合には、図28及び図30のCのように上側に再生部242、下側に操作部243を配置した投影画像241が投影されるようにしている。
 一方、天気予報アプリの提示情報がヘッドレスト99に投影されている場合に、リクライニングが倒されたときには、図27のレコードR73のアクションが実行される。この場合には、図1の検出処理部32は、リクライニングが倒されたことに対しては何もしない。天気予報アプリの提示情報の場合には、動画アプリの提示情報の場合と異なり、ユーザが投影画像を注視し続けないため、車酔いを考慮しない。
 なお、図27のアクション定義テーブルでは、ユーザがリクライニングを倒した動作(又は運転席シート若しくはヘッドレスト99の傾きの変化)をトリガとしたが、ユーザがリクライニングを起こす動作を含めて、ユーザがリクライニングを動かす動作又はリクライニングの傾きの変化をトリガとしてもよい。
 この場合に、リクライニングの傾斜角度が所定角度より前側となる角度となった場合、または、リクライニングの傾斜角度の前側への変化量が所定量より大きい場合に、投影画像241の再生部242が操作部243より下側に投影されるようにする。
 そして、リクライニングの傾斜角度が所定角度より後側に傾く角度となった場合、または、リクライニングの傾斜角度の後側への変化量が所定量より大きい場合に、投影画像241の再生部242が操作部243より上側に配置されるようにしてもよい。
 また、助手席シート等の他のシートのヘッドレストを可動の提示部位とする場合も運転席シート221のヘッドレスト99を可動の提示部位とした場合と同様の処理の適用が可能である。
 なお、図27のアクション定義テーブルのレコードR71及びR72の“アクション”フィールドのアクションは、“アプリ状態”フィールドと“トリガ”フィールドとがレコードR71及びR72と同様の組合せに分類できる任意の種類のアプリと任意の提示部位(自動車にも限定されない)のアクションとして適用できる。
<後部座席の右ドアガラス96が可動の提示部位として用いられる場合>
(動画アプリの提示情報が投影される場合)
 図31は、動画アプリの提示情報が後部座席の右ドアガラス96に投影された状態を例示した図である。
 ユーザが後部座席の右ドアガラス96(図8参照)を可動の提示部位として動画アプリの提示情報を投影させる操作を行うと、図31のように右ドアガラス96には動画アプリの提示情報が投影画像271として例えば図6のプロジェクタ83により投影される。
 図31のように右ドアガラス96に投影画像271が投影された状態において、ユーザ281等が、窓(右ドアガラス96)を開けると、又は、ドア(右ドア)を開けると、トリガが発生する。
 図32は、図1のアクション定義蓄積部52に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドが動画アプリであるレコードを例示した図である。
 動画アプリが所定の動画の再生中の場合に、ユーザ281等が窓を開けたときには、アプリ種類は動画アプリであり、アプリ状態は再生中であり、トリガはユーザが窓を開ける動作、又は、窓(右ドアガラス96)の下降による変位である。
 この場合、状況は、図32のレコードR91に該当するので、図1の検出処理部32は、図32のレコードR91の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図33は、図32のレコードR91のアクションが実行されたときの右ドアガラス96及び投影画像271の状態を例示した図である。
 例えば、ユーザ281が、パワーウインドウスイッチを開方向に操作すると、レコードR91のアクションが実行され、動画アプリにおける動画の再生が一時停止となる。
 これによって、右ドアガラス96が下降して投影画像271の投影ができない状態となっている間に動画再生が進んでしまうことが防止される。
 一方、動画アプリが動画の再生中ではない場合に、ユーザ281等が窓を開けたときには、アプリ種類は動画アプリであり、アプリ状態は通常であり、トリガはユーザが窓を開ける動作、又は、窓の下降による変位である。
 この場合、状況は、図32のレコードR92に該当するので、図1の検出処理部32は、図32のレコードR92の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 レコードR92のアクションにおいては、検出処理部32は、窓が開けられたことに対しては何もしない。
 次に、動画アプリが動画の再生中又は通常の場合に、ユーザ281等が後部座席の右ドアを開けたときには、この場合のアプリ種類は動画アプリであり、アプリ状態は再生中又は通常であり、トリガはユーザがドアを開ける動作、又は、ドアの変位である。
 この場合、状況は、図32のレコードR93に該当するので、図1の検出処理部32は、図32のレコードR93の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。なお、アプリ状態が通常の場合と再生中の場合とで本来は別のレコードであるが、省略して同一レコードとしている。
 レコードR93のアクションが実行された場合、動画アプリの再生中の動画が一時停止され、投影画像271を投影しているプロジェクタ(プロジェクタ83)が消灯する。なお、全てのプロジェクタを消灯してもよい。これによって、プロジェクタの光が昇降するユーザの目に照射される事態が抑止される。
 なお、後部座席の左ドアガラス94や助手席のドアガラス101等の他のドアガラスを可動の提示部位とする場合も後部座席の右ドアガラス96を可動の提示部位とした場合と同様の処理の適用が可能である。
 また、図32のアクション定義テーブルのレコードR91及びR92の“アクション”フィールドのアクションは、“アプリ状態”フィールドと“トリガ”フィールドとがレコードR91及びR92と同様の組合せに分類できる任意の種類のアプリと任意の提示部位(自動車にも限定されない)のアクションとして適用できる。
 さらに、図32のアクション定義テーブルのレコードR93の“アクション”フィールドのアクションは、“アプリ状態”フィールドと“トリガ”フィールドとがレコードR93と同様の組合せ(アプリ状態が通常と再生、トリガが提示部位の状態変化)に分類できる任意の種類のアプリと任意の提示部位(自動車にも限定されない)のアクションとして適用できる。
<サンルーフを有する天井が可動の提示部位として用いられる場合>
(地図アプリの提示情報が投影される場合)
 図34は、地図アプリの提示情報が天井92に投影された状態を例示した図である。
 ユーザ311等が天井92のサンルーフを含む部分を可動の提示部位として地図アプリの提示情報を投影させる操作を行うと、天井92には地図アプリの提示情報が投影画像291として例えば図6及び図7のプロジェクタ81により投影される。
 なお、図34では、サンルーフは例えばスライドパネルにより遮光状態であるとする。スライドパネルがスライドしてサンルーフの部分から待避すると、サンルーフが透光状態になる。以下において、サンルーフを透光状態することを、サンルーフを開けるという。
 図35は、図1のアクション定義蓄積部52に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドが地図アプリであるレコードを例示した図である。
 地図アプリの提示情報の投影画像291が天井92に投影されている状態において、ユーザ311が、地図アプリに対する操作中の場合に、ユーザ311又はユーザ311以外のユーザがサンルーフを開けたときには、アプリ種類は地図アプリであり、アプリ状態は操作中であり、トリガはユーザがサンルーフを開ける動作又はサンルーフが開いた位置への変化である。
 この場合、状況は、図35のレコードR111に該当するので、図1の検出処理部32は、図35のレコードR111の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 また、ユーザ311が、地図アプリの提示情報である投影画像291の閲覧中の場合に、ユーザ311又は他のユーザがサンルーフを開けたときには、アプリ種類は地図アプリであり、アプリ状態は閲覧中であり、トリガはユーザがサンルーフを開ける動作又はサンルーフ(スライドパネル)の閉められた位置からの変化である。
 この場合、状況は、図35のレコードR112に該当するので、図1の検出処理部32は、図35のレコードR112の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図36は、図35のレコードR111又はレコードR112が実行されたときの車内及び投影画像の状態を例示した図である。
 レコードR111及びレコードR112のアクションは同じであり、レコードR111又はレコードR112のアクションが実行された場合、地図アプリの提示情報が投影されていた提示部位が、天井92(サンルーフ301)から例えばヘッドレスト100に移動してヘッドレスト100に地図アプリの提示情報が投影画像292として投影される。
 これにより、ユーザ311が天井92に投影された地図アプリの操作中又は投影画像291の閲覧中にサンルーフが開けられた場合であっても、ユーザ311は引き続き地図アプリを利用することができる。
 ここで、提示情報が投影される移動先の提示部位は、操作又は閲覧をしていたユーザ(対象者)が見える位置の提示部位である。図36においては、後部座席のユーザ311が操作又は閲覧をしていたユーザであるため、ユーザ311が見える助手席シートのヘッドレスト99が移動先の提示部位となっている。
 対象者が見える位置の提示部位としては、例えば、前部座席の対象者に対してはダッシュボード等に取り付けられた通常のモニタ、前部座席のドアガラスが該当し、後部座席の対象者に対して前部座席のヘッドレスト99、100、後部座席のドアガラス等が該当する。なお、通常のモニタにアプリの提示情報を表示させる場合には、図1の出力部24の構成要素として通常のモニタが含まれる。
 図34の状態において、全てのユーザが、地図アプリの操作中ではなく、投影画像291の閲覧中でもない場合に、サンルーフが開けられたときには、アプリ種類は地図アプリであり、アプリ状態は通常であり、トリガはユーザがサンルーフを開ける動作又はサンルーフ(スライドパネル)の閉められた位置からの変化である。
 この場合、状況は、図35のレコードR113に該当するので、図1の検出処理部32は、図35のレコードR113の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 レコードR113のアクションにおいては、検出処理部32は、サンルーフが開けられたことに対しては何もしない。
 地図アプリを誰も利用していないため、地図アプリが一時的に利用できなくても不具合は生じない。
 なお、図35のアクション定義テーブルのレコードR111乃至R113の“アクション”フィールドのアクションは、“アプリ状態”フィールドと“トリガ”フィールドとがレコードR111乃至R113と同様の組合せに分類できる任意の種類のアプリと任意の提示部位(自動車にも限定されない)のアクションとして適用できる。
<<情報処理装置11の適用例2>>
 図1の情報処理装置11の適用例2として、情報処理装置11を会議室等の室内の可動の提示部位に各種アプリ(ディスカッションアプリ)の提示情報を投影させる投影装置として適用する場合について説明する。
 図37は、会議室等の室内におけるテーブルの天板を可動の提示部位として利用する場合のテーブルの配置について説明する図である。
 図37のAには、室内に置かれた1組のテーブル401と椅子402とが例示されている。図37のBには、会議の際などにおいて、図37のAのテーブル401の4つの天板403が連接され、横×縦が2×2に配置された様子が例示されており、各々のテーブル401及び椅子402が、テーブル401a乃至401d、及び、椅子402a乃至402dとして表されている。また、室内の天井にはプロジェクタ404が設置される。
<テーブル(天板)が可動の提示部位として用いられる場合>
 図38は、2つのテーブル401a及びテーブル401bの連接された天板にディスカッションアプリの提示情報が投影された状態を例示した図である。
 図38において、天板403aはテーブル401aの天板を表し、天板403bはテーブル401bの天板を表す。天板403a及び天板403bは、互いに向かい合わせで略隙間なく、図中上下に連接され、天板403a及び天板403b(の上面)が、ディスカッションアプリの提示情報が投影される提示部位として用いられる。
 投影画像411a及び投影画像411bは、それぞれ天板403a及び天板403bに投影された投影画像を表す。天板403aと天板403bとが略隙間なく連接された状態においては、投影画像411a及び投影画像411bは、連続した1つの投影画像として天板403a及び天板403bに投影される。
 投影画像411a及び投影画像411bは、1面の背景画像内に配置された付箋412a乃至付箋412fの画像を含む。付箋412a乃至付箋412fはディスカッションアプリの機能によりユーザが作成したメモを記した画像である。
 また、ユーザが付箋412a乃至付箋412fのうちのいずれかの付箋に指を近接させてスライドさせる動作を行うことで、その動作に合わせて付箋の投影位置が移動する。
 図39は、図1のアクション定義蓄積部52に記憶されている図2のアクション定義テーブルにおいて、“アプリ種類”フィールドがディスカッションアプリであるレコードを例示した図である。
 ユーザが、ディスカッション中の場合に、テーブル401aの天板403a又はテーブル401bの天板403bの両横等に手を掛けたときには、アプリ種類はディスカッションアプリであり、アプリ状態はディスカッション中であり、トリガはユーザがテーブルに手を掛ける動作である。
 この場合、状況は、図39のレコードR121に該当するので、図1の検出処理部32は、図39のレコードR121の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 なお、アプリ状態がディスカッション中であるか、又は、ディスカッション後であるかの判定に関して、グラフィックス表示処理部31は、例えば、ディスカッションアプリに対するディスカッション終了のユーザの操作が行われた場合にはディスカッション後と判定し、ディスカッション終了のユーザの操作が行われていない場合にはディスカッション中と判定する。
 または、グラフィックス表示処理部31は、図38のように天板403a及び天板403bの領域ごとにグループAとグループBとにグループ分けがされている場合に、両方のグループの領域に及ぶ付箋412Cや付箋412Dのような付箋が存在するときには、両方のグループの領域に及ぶ付箋がいずれのグループに属するかが確定されていないためディスカッション中であると判定し、両方のグループの領域に及び付箋が存在しない場合にはディスカッション中と判定する。
 図40は、図39のレコードR121のアクションが実行されたときの天板403a及び天板403b、並びに、投影画像411a及び投影画像411bの状態を例示した図である。
 ユーザが天板403bの両横に手414を掛けたことにより、レコードR121のアクションが実行された場合、投影画像411bに「ディスカッション中です。テーブルを離さないでください」、「机を離さないで!」等の文字画像の警告情報413が重畳された画像が投影される。
 これにより、ユーザに対してディスカッション中であるときにテーブルを動かさないように注意が促される。
 ユーザが、警告情報413が提示されているにもかかわらず、図40のようにテーブル401bをテーブル401aから離した場合には、アプリ種類はディスカッションアプリであり、アプリ状態はディスカッション中であり、トリガはテーブル401bの位置の変化(テーブルが離されたという状態変化)である。
 この場合、状況は、図39のレコードR122に該当するので、図1の検出処理部32は、図39のレコードR122の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 図41は、図39のレコードR122のアクションが実行されたときの天板403a及び天板403b、並びに、投影画像411a及び投影画像411bの状態を例示した図である。
 天板403bが天板403aから離れたことで、レコードR122のアクションが実行された場合、テーブル401bの天板403bに投影されていた付箋412c、412d、412e、412fのコピーが、テーブル401aの天板403a内に投影される。
 テーブル401bの天板403bには、付箋全体が天板403bに投影されていた付箋412e、412fがそのまま天板403bに投影される。
 付箋の一部部分のみが天板403bに投影されていた付箋412c、412d、即ち、天板403aの領域の付箋をグループAとし、天板403bの領域の付箋をグループBとすると、天板403aと天板403bの両方の領域に及ぶ付箋412c、412dは、グループAの付箋として天板403aのみに投影され、天板403bには投影されない。ただし、付箋412c、412dも天板403bに投影されてもよい。
 なお、ディスカッション中のときにテーブル401bがテーブル401aから離された場合の図39のレコードR122のアクションとして、テーブル401aの天板403aとテーブル401bの天板403bの各々に全ての付箋を投影させてもよいし(レコードR122のアクションの他の例1)、他方のテーブルの天板に投影されていた付箋をアイコン化(縮小化)して投影させてもよいし(レコードR122のアクションの他の例2)、各々のテーブルに投影されていた付箋のみを投影させるようにしてよい(レコードR122のアクションの他の例3)。
 図42は、図39のレコードR122のアクションの他の例1を説明する図である。
 図42のAは、テーブル401aとテーブル401bとが連接されていたときの天板403aの投影画像411aと天板403bの投影画像411bとを例示している。
 図42のAにおいて、天板403a及び天板403bには、付箋412a乃至412fが投影されている。
 図42のBは、図42のAの状態からテーブル401aとテーブル401bとが離された場合において、レコードR122のアクションの他の例1が実行されたときの天板403aの投影画像411aと天板403bの投影画像411bとを表す。
 図42のBにおいて、天板403aと天板403bとには、それぞれ図42のAにおいて天板403aの投影画像411aと天板403bの投影画像411bとに含まれていた全ての付箋412a乃至412fが互いの相対位置を保持したまま投影される。
 図43は、図39のレコードR122のアクションの他の例2を説明する図である。
 図43のAは、テーブル401aとテーブル401bとが連接されていたときの天板403aの投影画像411aと天板403bの投影画像411bとを例示している。図43のAは、図42のAと同じであるので説明を省略する。
 図43のBは、図42のAの状態からテーブル401aとテーブル401bとが離された場合において、レコードR122のアクションの他の例2が実行されたときの天板403aの投影画像411aと天板403bの投影画像411bとを表す。
 図43のBにおいて、天板403aには、図43のAの状態で天板403aに投影されていた付箋412a乃至412cが投影される。なお、付箋412aのように図43のAの状態で天板403aと天板403bの両方に領域に及ぶ付箋の場合、例えば、その付箋が天板403aと天板403bとの各々の領域において閉める面積が大きい方の天板に投影されていた付箋としている。
 また、テーブル401aの天板403aには、図42のAにおいて天板403bに投影されていた付箋412d乃至412fをアイコン化(縮小化)した付箋412ds、412es、412fsが投影される。
 テーブル401bの天板403bには、図43のAの状態で天板403bに投影されていた付箋412d乃至412fが投影される。
 また、テーブル401bの天板403bには、図43のAにおいてテーブル401aの天板403aに投影されていた付箋412a乃至412cをアイコン化(縮小化)した付箋412as、412bs、412csが投影される。
 図44は、図39のレコードR122のアクションの他の例3を説明する図である。
 図44のAは、テーブル401aとテーブル401bとが連接されていたときの天板403aの投影画像411aと天板403bの投影画像411bとを例示している。図44のAは、図42のAと同じであるので説明を省略する。
 図44のBは、図44のAの状態からテーブル401aとテーブル401bとが離された場合において、レコードR122のアクションの他の例3が実行されたときの天板403aの投影画像411aと天板403bの投影画像411bとを表す。
 図44のBにおいて、天板403aには、図44のAの状態で天板403aに投影されていた付箋412a乃至412cが投影される。
 なお、付箋412aのように図44のAの状態で天板403aと天板403bの両方に領域に及ぶ付箋の場合、例えば、その付箋が天板403aと天板403bとの各々の領域において閉める面積が大きい方の天板に投影されていた付箋としている。
 また、テーブル401bの天板403bには、図44のAの状態で天板403bに投影されていた付箋412d乃至付箋412fが投影される。
 なお、ディスカッション終了後の場合に、ユーザが、テーブル401aとテーブル401bとを離したときには、アプリ種類はディスカッションアプリであり、アプリ状態はディスカッション後であり、トリガはテーブル401bの位置の変化(テーブルが離されたという状態変化)である。
 この場合、状況は、図39のレコードR123に該当するので、図1の検出処理部32は、図39のレコードR123の“アクション”フィールドのアクションを図1のグラフィックス表示処理部31に実行させる。
 レコードR123のアクションにおいては、検出処理部32は、テーブルが離されたことに対しては何もしない。
 なお、図39のアクション定義テーブルでは明示していないが、図1の検出処理部32は、レコードR121乃至レコードR123のいずれのアクションを実行する場合でも、テーブルの天板の移動に伴い提示情報を投影するアプリウインドウの位置等を変更し、テーブルの天板が常に提示情報の提示部位となるように投影画像を投影させる。
 なお、図39のアクション定義テーブルのレコードR121乃至R123の“アクション”フィールドのアクションは、“アプリ状態”フィールドと“トリガ”フィールドとがレコードR121乃至R123と同様の組合せに分類できる任意の種類のアプリと任意の提示部位(テーブルにも限定されない)のアクションとして適用できる。
<他の形態>
 図1の情報処理装置11は、アプリ等の処理により生成された提示情報を出力部24のプロジェクタにより可動又は不動の提示部位に投影する。一方、出力部24の構成要素として、可動又は不動の提示部位となり得る可動又は不動の部材の表面にフラットパネルやフレキシブルの画像表示ディスプレイ(液晶ディスプレイ、有機EL(Organic ElectroLuminescence)等)を出力部24として設け、演算処理部22からの提示情報を提示部位の画像表示ディスプレイに表示させるようにしてもよい。
 図1の情報処理装置11において、演算処理部22と記憶部23のうちの少なくとも演算処理部22は、入力部21及び出力部24とはインターネット等の通信回線により通信可能に接続されたサーバ装置であってもよい。通信回線は、無線でも有線でもよく、無線と有線とが混在していてもよい。
<プログラム>
 図1の情報処理装置11が行うグラフィックス表示処理部31及び検出処理部32の処理の一部及び全ては、ハードウェアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図45は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)601,ROM(Read Only Memory)602,RAM(Random Access Memory)603は、バス604により相互に接続されている。
 バス604には、さらに、入出力インタフェース605が接続されている。入出力インタフェース605には、入力部606、出力部607、記憶部608、通信部609、及びドライブ610が接続されている。
 入力部606は、キーボード、マウス、マイクロフォンなどよりなる。出力部607は、ディスプレイ、スピーカなどよりなる。記憶部608は、ハードディスクや不揮発性のメモリなどよりなる。通信部609は、ネットワークインタフェースなどよりなる。ドライブ610は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア611を駆動する。
 以上のように構成されるコンピュータでは、CPU601が、例えば、記憶部608に記憶されているプログラムを、入出力インタフェース605及びバス604を介して、RAM603にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU601)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア611に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア611をドライブ610に装着することにより、入出力インタフェース605を介して、記憶部608にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部609で受信し、記憶部608にインストールすることができる。その他、プログラムは、ROM602や記憶部608に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 なお、本技術は、以下のような構成も取ることができる。
<1> 提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御を行う制御部
 を有する情報処理装置。
<2> 前記提示部位情報は、前記提示部位の状態変化を示す情報、又は、前記提示部位の状態変化に関係するユーザの動作を示す情報である
 <1>に記載の情報処理装置。
<3> 前記ユーザの動作は、前記提示部位を含む部材を動かす操作部を操作する前記ユーザの動作、又は、前記提示部位を含む部材を前記ユーザが手動で動かす動作である
 <2>に記載の情報処理装置。
<4> 前記処理情報は、前記処理の種類を示す情報、及び、前記処理の状態を示す情報である
 <1>乃至<3>のいずれかに記載の情報処理装置。
<5> 前記提示部位に提示された提示情報をユーザが閲覧中か否かを示す情報、又は、前記処理に対するユーザの操作の有無を示す情報である
 <1>乃至<4>に記載の情報処理装置。
<6> 前記制御部は、前記提示情報の前記提示状態の制御として、前記提示部位の制御、又は、前記提示情報の提示形態の制御を行う
 <1>乃至<5>のいずれかに記載の情報処理装置。
<7> 前記提示部位は、前記提示情報が投影される部位である
 <1>乃至<6>のいずれかに記載の情報処理装置。
<8> 前記提示部位は、可動の部材の表面である
 <1>乃至<7>のいずれかに記載の情報処理装置。
<9> 前記可動の部材は、自動車の部材である
 <8>に記載の情報処理装置。
<10> 前記可動の部材は、テーブルである
 <8>に記載の情報処理装置。
<11> 前記処理情報が、前記処理の状態が再生中であることを示し、前記提示部位情報が、前記提示部位の状態変化が生じたことを示した場合に、前記制御部は、前記処理を停止させる
 <1>乃至<9>のいずれかに記載の情報処理装置。
<12> 前記処理情報が、前記処理の状態が一定音量以上による再生中であることを示した場合に、前記制御部は、前記処理を停止させる
 <11>に記載の情報処理装置。
<13> 前記処理情報が、前記処理の状態が再生中であることを示し、前記提示部位情報が、前記提示部位の状態変化を生じさせるユーザの動作が行われたことを示した場合に、前記制御部は、警告情報を前記提示部位に提示させる
<1>乃至<9>のいずれかに請求項1に記載の情報処理装置。
<14> 前記環境情報が、前記自動車が走行中であることを示し、前記提示部位情報が、前記提示部位の状態変化を生じさせるユーザの動作が行われたことを示した場合に、前記制御部は、警告情報を前記提示部位に提示させる
 <9>に記載の情報処理装置。
<15> 前記環境情報が、前記自動車が走行中であることを示し、前記提示部位情報が、前記提示部位の状態変化を生じさせるユーザの動作が行われたことを示した場合に、前記制御部は、前記提示部位の部材をロックする
 <9>に記載の情報処理装置。
<16> 前記提示情報が動画を含み、
 前記処理情報が、前記処理の状態が前記動画の再生中であることを示し、前記提示部位情報が、前記提示部位の状態変化が生じたことを示した場合に、前記制御部は、前記動画が提示される提示部位を変更する
 <1>乃至<9>のいずれかに記載の情報処理装置。
<17> 前記ユーザ情報が、前記処理に対してユーザが操作中であることを示した場合、又は、前記提示部位に提示された前記提示情報をユーザが閲覧中であることを示した場合に、前記提示部位情報が、前記提示部位の状態変化が生じたことを示したときに、前記制御部は、前記提示情報が提示される提示部位を変更する
 <1>乃至<9>のいずれかに記載の情報処理装置。
<18> 前記提示情報がディスカッションにおいて提示される付箋を含み、
 前記処理情報が、前記処理の状態がディスカッション中であることを示し、前記提示部位情報が、前記提示部位の状態変化が生じたことを示した場合に、前記制御部は、前記付箋が提示される前記提示部位の範囲内における位置を変更する
 <10>に記載の情報処理装置。
<19> 制御部
 を有する情報処理装置の
 前記制御部が、
 提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御を行う
 情報処理方法。
<20> コンピュータを、
 提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御を行う制御部
 として機能させるためのプログラム。
 11 情報処理装置, 21 入力部, 23 記憶部, 24 出力部, 31 グラフィックス表示処理部, 32 検出処理部, 41 入力情報解析部, 42 アプリケーション実行部, 43 表示制御部, 51 アクション実行部, 52 アクション定義蓄積部, 53 緊急度定義蓄積部, 54 アプリ状態定義蓄積部

Claims (20)

  1.  提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御を行う制御部
     を有する情報処理装置。
  2.  前記提示部位情報は、前記提示部位の状態変化を示す情報、又は、前記提示部位の状態変化に関係するユーザの動作を示す情報である
     請求項1に記載の情報処理装置。
  3.  前記ユーザの動作は、前記提示部位を含む部材を動かす操作部を操作する前記ユーザの動作、又は、前記提示部位を含む部材を前記ユーザが手動で動かす動作である
     請求項2に記載の情報処理装置。
  4.  前記処理情報は、前記処理の種類を示す情報、及び、前記処理の状態を示す情報である
     請求項1に記載の情報処理装置。
  5.  前記ユーザ情報は、前記提示部位に提示された提示情報をユーザが閲覧中か否かを示す情報、又は、前記処理に対するユーザの操作の有無を示す情報である
     請求項1に記載の情報処理装置。
  6.  前記制御部は、前記提示情報の前記提示状態の制御として、前記提示部位の制御、又は、前記提示情報の提示形態の制御を行う
     請求項1に記載の情報処理装置。
  7.  前記提示部位は、前記提示情報が投影される部位である
     請求項1に記載の情報処理装置。
  8.  前記提示部位は、可動の部材の表面である
     請求項1に記載の情報処理装置。
  9.  前記可動の部材は、自動車の部材である
     請求項8に記載の情報処理装置。
  10.  前記可動の部材は、テーブルである
     請求項8に記載の情報処理装置。
  11.  前記処理情報が、前記処理の状態が再生中であることを示し、前記提示部位情報が、前記提示部位の状態変化が生じたことを示した場合に、前記制御部は、前記処理を停止させる
     請求項1に記載の情報処理装置。
  12.  前記処理情報が、前記処理の状態が一定音量以上による再生中であることを示した場合に、前記制御部は、前記処理を停止させる
     請求項11に記載の情報処理装置。
  13.  前記処理情報が、前記処理の状態が再生中であることを示し、前記提示部位情報が、前記提示部位の状態変化を生じさせるユーザの動作が行われたことを示した場合に、前記制御部は、警告情報を前記提示部位に提示させる
     請求項1に記載の情報処理装置。
  14.  前記環境情報が、前記自動車が走行中であることを示し、前記提示部位情報が、前記提示部位の状態変化を生じさせるユーザの動作が行われたことを示した場合に、前記制御部は、警告情報を前記提示部位に提示させる
     請求項9に記載の情報処理装置。
  15.  前記環境情報が、前記自動車が走行中であることを示し、前記提示部位情報が、前記提示部位の状態変化を生じさせるユーザの動作が行われたことを示した場合に、前記制御部は、前記提示部位の部材をロックする
     請求項9に記載の情報処理装置。
  16.  前記提示情報が動画を含み、
     前記処理情報が、前記処理の状態が前記動画の再生中であることを示し、前記提示部位情報が、前記提示部位の状態変化が生じたことを示した場合に、前記制御部は、前記動画が提示される提示部位を変更する
     請求項1に記載の情報処理装置。
  17.  前記ユーザ情報が、前記処理に対してユーザが操作中であることを示した場合、又は、前記提示部位に提示された前記提示情報をユーザが閲覧中であることを示した場合に、前記提示部位情報が、前記提示部位の状態変化が生じたことを示したときに、前記制御部は、前記提示情報が提示される提示部位を変更する
     請求項1に記載の情報処理装置。
  18.  前記提示情報がディスカッションにおいて提示される付箋を含み、
     前記処理情報が、前記処理の状態がディスカッション中であることを示し、前記提示部位情報が、前記提示部位の状態変化が生じたことを示した場合に、前記制御部は、前記付箋が提示される前記提示部位の範囲内における位置を変更する
     請求項10に記載の情報処理装置。
  19.  制御部
     を有する情報処理装置の
     前記制御部が、
     提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御を行う
     情報処理方法。
  20.  コンピュータを、
     提示情報が提示される提示部位の状態変化に関する提示部位情報、並びに、前記提示情報を生成する処理に関する処理情報、前記処理に対するユーザの対応に関するユーザ情報、及び、前記提示部位の環境の状態に関する環境情報のうちの少なくとも1つの情報に基づいて、前記提示情報の提示状態、及び、前記処理の状態のうちの少なくとも一方の状態の制御を行う制御部
     として機能させるためのプログラム。
PCT/JP2020/042378 2019-11-29 2020-11-13 情報処理装置、情報処理方法、及び、プログラム WO2021106614A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021561302A JPWO2021106614A1 (ja) 2019-11-29 2020-11-13
US17/773,439 US20220377294A1 (en) 2019-11-29 2020-11-13 Information processing device, information processing method, and program
CN202080080503.8A CN114730238A (zh) 2019-11-29 2020-11-13 信息处理装置、信息处理方法和程序
EP20894350.6A EP4068068A4 (en) 2019-11-29 2020-11-13 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-216097 2019-11-29
JP2019216097 2019-11-29

Publications (1)

Publication Number Publication Date
WO2021106614A1 true WO2021106614A1 (ja) 2021-06-03

Family

ID=76130203

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/042378 WO2021106614A1 (ja) 2019-11-29 2020-11-13 情報処理装置、情報処理方法、及び、プログラム

Country Status (5)

Country Link
US (1) US20220377294A1 (ja)
EP (1) EP4068068A4 (ja)
JP (1) JPWO2021106614A1 (ja)
CN (1) CN114730238A (ja)
WO (1) WO2021106614A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086014A (ja) * 2008-09-29 2010-04-15 Seiko Epson Corp 情報処理装置およびプログラム
JP2015529873A (ja) * 2012-06-29 2015-10-08 ノキア コーポレイション 環境情報の視覚的複雑性に基づいて情報の提示を修正する方法と装置
JP2018133019A (ja) * 2017-02-17 2018-08-23 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
WO2019069575A1 (ja) 2017-10-05 2019-04-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2019082973A (ja) * 2017-10-31 2019-05-30 アルプスアルパイン株式会社 投影システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015223367A1 (de) * 2015-11-26 2017-06-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Steuerung eines Fahrzeugsystems
US20170171497A1 (en) * 2015-12-15 2017-06-15 Le Holdings (Beijing) Co., Ltd. Method and Device for Automatically Adjusting Volume
JP2017214035A (ja) * 2016-06-02 2017-12-07 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP7095291B2 (ja) * 2018-01-30 2022-07-05 トヨタ自動車株式会社 車両用表示装置
WO2020246627A1 (ko) * 2019-06-04 2020-12-10 엘지전자 주식회사 영상 출력 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086014A (ja) * 2008-09-29 2010-04-15 Seiko Epson Corp 情報処理装置およびプログラム
JP2015529873A (ja) * 2012-06-29 2015-10-08 ノキア コーポレイション 環境情報の視覚的複雑性に基づいて情報の提示を修正する方法と装置
JP2018133019A (ja) * 2017-02-17 2018-08-23 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
WO2019069575A1 (ja) 2017-10-05 2019-04-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2019082973A (ja) * 2017-10-31 2019-05-30 アルプスアルパイン株式会社 投影システム

Also Published As

Publication number Publication date
US20220377294A1 (en) 2022-11-24
CN114730238A (zh) 2022-07-08
EP4068068A4 (en) 2023-01-18
JPWO2021106614A1 (ja) 2021-06-03
EP4068068A1 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
US20240094866A1 (en) Devices, Methods, and Graphical User Interfaces for Displaying Applications in Three-Dimensional Environments
US10449972B2 (en) Gesture based input system in a vehicle with haptic feedback
JP5725259B2 (ja) 表示のための方法、装置、コンピュータ、及び携帯機器、並びに、その装置を有する車両
US9017164B2 (en) Game device provided with touch panel, game control program, and method for controlling game
KR20210011416A (ko) 차량 탑승자 및 원격 사용자를 위한 공유 환경
KR102188757B1 (ko) 오프-스크린 가시 객체들의 표면화
US20130241720A1 (en) Configurable vehicle console
EP3461110A1 (en) Stateful integration of a vehicle information system user interface with mobile device operations
KR102176998B1 (ko) 놀이 공원 놀이물 제어 관리 시스템 및 방법
WO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
JP2020537209A (ja) ユーザインタフェースの動作及び運動ベースの制御
JP2008500582A (ja) 複数の表示機構をサポートする携帯型電子装置
US20230094522A1 (en) Devices, methods, and graphical user interfaces for content applications
US20230398870A1 (en) Systems and methods for user interfaces in a vehicular environment
WO2021166801A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2019236280A1 (en) Displaying physical input devices as virtual objects
US10953749B2 (en) Vehicular display device
WO2021106614A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20220236840A1 (en) Apparatus for searching using multiple displays
CN110955475A (zh) 车辆用用户界面系统
TW201926050A (zh) 車輛多螢幕控制系統及車輛多螢幕控制方法
KR101436945B1 (ko) 차량 내의 헤드 유닛의 프라이빗 모드 지원 장치, 방법, 컴퓨터 판독 가능한 기록 매체
US20240086031A1 (en) Method of grouping user interfaces in an environment
US20230297710A1 (en) Applications in a Multi-User Environment
US20240019928A1 (en) Gaze and Head Pose Interaction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20894350

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021561302

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020894350

Country of ref document: EP

Effective date: 20220629