WO2007043464A1 - 出力制御装置、出力制御方法、出力制御プログラムおよびコンピュータに読み取り可能な記録媒体 - Google Patents

出力制御装置、出力制御方法、出力制御プログラムおよびコンピュータに読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2007043464A1
WO2007043464A1 PCT/JP2006/320081 JP2006320081W WO2007043464A1 WO 2007043464 A1 WO2007043464 A1 WO 2007043464A1 JP 2006320081 W JP2006320081 W JP 2006320081W WO 2007043464 A1 WO2007043464 A1 WO 2007043464A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
content
passenger
output
output control
Prior art date
Application number
PCT/JP2006/320081
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Publication of WO2007043464A1 publication Critical patent/WO2007043464A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R13/00Elements for body-finishing, identifying, or decorating; Arrangements or adaptations for advertising purposes
    • B60R13/08Insulating elements, e.g. for sound insulation
    • B60R13/0815Acoustic or thermal insulation of passenger compartments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R13/00Elements for body-finishing, identifying, or decorating; Arrangements or adaptations for advertising purposes
    • B60R13/08Insulating elements, e.g. for sound insulation

Definitions

  • Output control device output control method, output control program, and computer-readable recording medium
  • the present invention relates to an output control apparatus, an output control method, an output control program, and a computer-readable recording medium that perform control related to content output in a mobile body.
  • the present invention is not limited to the above-described output control device, output control method, output control program, and computer-readable recording medium. Background art
  • a passenger of the moving object can view various contents via a display device such as a display and an acoustic device such as a speaker mounted on the moving object.
  • Various types of content include, for example, radio and television broadcasts, music and video recorded on recording media such as CD (Compact Disk) and DVD (Digital Versatile Disk). Watch content by adjusting the volume and orientation of the display screen.
  • each passenger's preference for the in-vehicle environment (such as the position and operating status of the in-vehicle device) is used as profile information for each passenger, using an IC (Integrated Circuit) card ID ( IDentification) Store in the card.
  • IC Integrated Circuit
  • IDentification IDentification
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2002-104105
  • each passenger needs to create and possess an ID card storing profile information, and to take measures to prevent loss and damage of the ID card.
  • the burden on the passenger increases.
  • the ID card is used to adjust the in-vehicle environment, so the board does not have an ID card.
  • An example is the problem that the interior environment cannot be set according to passenger preferences.
  • the output control device is an output control device that controls the output of content in a mobile body.
  • Information input identification means for identifying the passenger of the mobile object, and information relating to the passenger identified by the identification means (hereinafter referred to as “passenger information” t)
  • the output means Based on the passenger information acquisition means, the output means for outputting the content, the content information input by the input means, and the passenger information acquired by the passenger information acquisition means.
  • a control means for changing a viewing state to be viewed by control of the output means.
  • the output control device is an output control device that controls the output of content in a mobile body, and an input means for receiving input of content information, and detects the behavior of the passenger Viewing and listening to the content based on behavior detection means, output means for outputting the content, content information input by the input means, and results detected by the behavior detection means And a control means for changing the state by the control of the output means.
  • the output control method according to the invention of claim 7 is an output control method for controlling output of content in a mobile body, an input step for receiving input of content information, and specifying an occupant of the mobile body A passenger information acquisition step of acquiring passenger information of the passenger specified by the specific step, an output step of outputting the content, and content information input by the input step, A control step of changing a viewing state of viewing the content by controlling the output step based on the passenger information acquired by the passenger information acquisition step.
  • the output control method according to the invention of claim 8 is an output control method for controlling output of content in a mobile body, and an input step for receiving input of content information.
  • a behavior detection step for detecting the behavior of the passenger an output step for outputting the content, content information input by the input step, and a result detected by the behavior detection step.
  • an output control program according to claim 9 causes a computer to execute the output control method according to claim 7 or 8.
  • a computer-readable recording medium according to the invention of claim 10 records the output control program according to claim 9.
  • FIG. 1 is a block diagram showing an example of a functional configuration of an output control device that works on the present embodiment.
  • FIG. 2 is a flow chart showing the contents of processing of the output control apparatus which is effective in the present embodiment.
  • FIG. 3 is a block diagram showing an example of a hardware configuration of a navigation device that works well with the present embodiment.
  • FIG. 4 is an explanatory view showing an example of the inside of a vehicle equipped with a navigation device that is effective in the present embodiment.
  • FIG. 5 is a flowchart showing the contents of processing using the passenger information in the navigation device empowering the present embodiment.
  • FIG. 6 is a flowchart showing the contents of processing using behavior information in the navigation apparatus which is useful in the present embodiment.
  • FIG. 1 is a block diagram showing an example of a functional configuration of an output control device that works according to the present embodiment.
  • an output control device 100 includes a content information input unit 101, a passenger identification unit 102, a passenger information acquisition unit 103, a behavior detection unit 104, a viewing state control unit 105, and a content. And an output unit 106.
  • Content information input unit 101 accepts input of information related to content (hereinafter referred to as “content information”).
  • content information includes, for example, video and audio content and information indicating the content. More specifically, there are a keyword indicating the content, a content title, a content title and a content telop.
  • the passenger identification unit 102 identifies the passenger.
  • the identification of the passenger is, for example, the identification of the relationship (owner, relative, friend, other person, etc.) with the owner of the moving body in each passenger.
  • the passenger information acquisition unit 103 acquires the passenger information regarding the passenger specified by the passenger specifying unit 102.
  • the passenger information is, for example, information including characteristics such as preference, age, and sex regarding the passenger, and configuration such as the arrangement and number of passengers.
  • the behavior detection unit 104 detects the behavior of the passenger.
  • the passenger's behavior is information including the physical condition of the passenger such as sleepiness, fatigue and physical condition, and may be information including the arrangement and number of passengers exhibiting the predetermined behavior.
  • the viewing state control unit 105 includes content information input by the content information input unit 101, passenger information acquired by the passenger information acquisition unit 103, and behavior detection unit 104.
  • the viewing state is a state including, for example, the output direction and sound quality of the output unit of the audio device that outputs the audio information of the content, the display direction and image quality of the display device that outputs the video information of the content.
  • the content output unit 106 outputs content under the control of the viewing state control unit 105.
  • the content is output, for example, by a display device such as a display mounted on the moving body or an acoustic device such as a speaker.
  • FIG. 2 is a flowchart showing the contents of the processing of the output control apparatus that is relevant to the present embodiment.
  • the content information input unit 101 determines whether or not it has received the input of content information (step S201).
  • the content information may be input, for example, by receiving a radio wave related to content from a communication unit (not shown) or reading a storage unit (not shown).
  • the passenger may instruct the type of content from an operation unit (not shown).
  • step S201 the input of content information is waited for and if accepted (step S201: Yes), the passenger identification unit 102 identifies the passenger (step S202).
  • the identification of the passenger is, for example, the identification of the relationship between the owner of the mobile object and the passenger.
  • the occupant information acquisition unit 103 acquires occupant information regarding the occupant identified in step S202 (step S203).
  • Passenger information is, for example, information including features such as passenger preferences, content viewing history, age, gender, etc., and configuration such as passenger placement and number of passengers.
  • the behavior detection unit 104 detects the behavior of the passenger (step S204).
  • the behavior of the occupant is information including the physical condition of the occupant such as sleepiness, fatigue, and physical condition.
  • the passenger information is acquired (step S203) and the behavior of the passenger is detected (step S204). However, the passenger behavior is detected (step S204), Acquire passenger information (step S203 ) Don't take either step in the order or the configuration.
  • the viewing state control unit 105 includes the content information input in step S201, the occupant information acquired in step S203, and the behavior of the occupant detected in step S204.
  • the viewing state is changed by controlling the content output unit 106 based on at least two pieces of information including the content information (step S205).
  • the viewing state is a state including, for example, the output direction and sound quality of the output unit of the audio device that outputs the audio information of the content, the display direction and image quality of the display device that outputs the video information of the content.
  • the content output unit 106 outputs content according to the control of the viewing state control unit 105 (step S206).
  • the content is output by, for example, a display device such as a display mounted on a moving body or an acoustic device such as a speaker. Then, a series of processing is finished.
  • step S201 After waiting for the input of content information, if it is received (step S201: Yes), the passenger is identified (step S202), and the passenger information is acquired (step S202). In step S203), the behavior is detected (step S204). However, the above-described steps S202 to S204 may be performed before receiving the input of the content information. For example, at the time of boarding, the passenger is identified (step S202), the passenger information is obtained (step S203), the behavior is detected (step S204), and the input of content information is accepted. If the content is received (step S201: Yes), the content output unit 106 may be controlled to change the viewing state (step S205).
  • the user can view the content by his / her own operation. Even without changing, the viewing state can be changed based on the passenger information and behavior of the passenger. Therefore, it is possible to efficiently provide a comfortable viewing state to the passenger.
  • FIG. 3 is a block diagram showing an example of a hardware configuration of a navigation apparatus that works on the present embodiment.
  • a navigation device 300 is mounted on a moving body such as a vehicle, and includes a navigation control unit 301, a user operation unit 302, a display unit 303, a position acquisition unit 304, and a recording medium. 305, a recording medium decoding unit 306, an audio output unit 307, a communication unit 308, a route search unit 309, a route guidance unit 310, an audio generation unit 311, a speaker 312, a passenger photographing unit 313, Consists of.
  • the navigation control unit 301 controls the entire navigation device 300.
  • the navigation control unit 301 includes, for example, a CPU (Central Processing Unit) that executes predetermined arithmetic processing, a ROM (Read Only Memory) that stores various control programs, and a RAM (Random) that functions as a work area for the CPU. It can be realized by a microcomputer constituted by an Access Memory).
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random
  • the navigation control unit 301 On the basis of the information on the current position acquired by the position acquisition unit 304 and the map information obtained from the recording medium 305 via the recording medium decoding unit 306, the navigation control unit 301 performs the route guidance, The driving force at which position on the map is calculated, and the calculation result is output to the display unit 303.
  • the navigation control unit 301 inputs / outputs information related to route guidance to / from the route search unit 309, the route guidance unit 310, and the voice generation unit 311 during route guidance, and displays information obtained as a result. Output to 303 and audio output unit 307.
  • the navigation control unit 301 generates passenger identification information and behavior information, which will be described later, based on the passenger image or behavior of the passenger photographed by the passenger photographing unit 313. Then, based on the content information regarding the content and the identification information and behavior information of the passenger, the viewing state of viewing the content such as audio and video is controlled.
  • Content information is, for example, video and audio content and information indicating the content.
  • the user is instructed to play music or video recorded on the recording medium 305 or radio broadcast or television broadcast received by the communication unit 308 by operating the user operation unit 302.
  • the state includes the direction of the sound 312 of the audio device that outputs the audio information of the content, the display direction of the display unit 303 that outputs the video information of the content, and the like.
  • the control of the viewing state is, for example, controlling so as to be a viewing state suitable for the passenger information associated with the content, which will be described later, or a passenger in a specific behavior state. More specifically, control may be performed such as changing the orientation of the display unit 303 or adjusting the orientation of the speaker 312 for the passenger most closely related to the content to be reproduced.
  • the user operation unit 302 acquires information input by the user by operating operation means such as a remote controller, a switch, and a touch panel, and outputs the acquired information to the navigation control unit 301.
  • operating operation means such as a remote controller, a switch, and a touch panel
  • Display unit 303 includes, for example, a CRT (Cathode Ray Tube), a TFT liquid crystal display, an organic EL display, a plasma display, and the like.
  • the display unit 303 can be configured by, for example, a video IZF (interface) or a video display device connected to the video IZF.
  • the video IZF is, for example, a graphic controller that controls the entire display device, a buffer memory such as VRAM (Video RAM) that temporarily stores image information that can be displayed immediately, and a graphics controller. It is composed of a control IC that controls the display of the display device based on the image information output from the device.
  • the display unit 303 displays traffic information, map information, information on route guidance, content related to video output from the navigation control unit 301, and other various information according to the control related to the output of the navigation control unit 301. To do.
  • the position acquisition unit 304 includes a GPS receiver and various sensor forces such as a vehicle speed sensor, an angular velocity sensor, and an acceleration sensor, and the current position of the moving object (navigation device). Information on the current position of device 300).
  • the GPS receiver receives the radio wave from the GPS satellite and determines the geometric position with the GPS satellite. GPS means Global Positioning
  • the GPS receiver is composed of an antenna for receiving radio waves from GPS satellites, a tuner for demodulating the received radio waves, and an arithmetic circuit for calculating the current position based on the demodulated information.
  • the recording medium 305 various control programs and various information are recorded in a state that can be read by a computer.
  • the recording medium 305 can be realized by, for example, an HD (Hard Disk), a DVD (Digital Versatile Disk), a CD (Compact Disk), or a memory card.
  • the recording medium 305 may accept writing of information by the recording medium decoding unit 306 and record the written information in a nonvolatile manner.
  • map information used for route search and route guidance is recorded in the recording medium 305.
  • the map information recorded in the recording medium 305 includes background data representing features (features) such as buildings, rivers, and the ground surface, and road shape data representing the shape of the road. It is drawn in 2D or 3D on the display screen.
  • the navigation device 300 is guiding a route, the map information read from the recording medium 305 by the recording medium decoding unit 306 and the mark indicating the position of the moving body acquired by the position acquisition unit 304 are displayed on the display unit 303. Will be displayed.
  • Recording medium 305 records registration identification information for identifying the passenger, specific behavior information for determining the behavior of the passenger, and content such as video and music. ing.
  • the registered identification information includes, for example, information obtained by extracting feature points of a passenger image photographed by a camera or the like, such as a face pattern, an eye iris, fingerprint data, or voice data.
  • the specific behavior information includes, for example, information obtained by extracting features related to the specific behavior state such as drowsiness and fatigue, such as eyelid movement, volume level, and heart rate.
  • the content recorded in the recording medium 305 may have the above-described content information, and the navigation control unit 301 may output content information of the content to be output. Is read.
  • the content information is related to, for example, the passenger's specific behavior status determined based on the passenger information of the passenger identified based on the registered identification information of the passenger or the specific behavior information of the passenger! It has been.
  • the navigation control unit 301 may be configured to read when the navigation control unit 301 performs control related to the viewing state in accordance with the result of passenger identification and behavior determination in the navigation control unit 301.
  • the passenger information is, for example, information including characteristics such as preferences, viewing history, age, and gender, and the arrangement of passengers and the number of passengers.
  • the relationship between the content information and the passenger information of the passenger and the specific behavior state is, for example, content that can be determined by force such as the number of words that appear in the telop, title, keyword, genre, and telop included in the content information
  • the recording medium 305 may be configured to record a database in which the relation between the above-described content information and the passenger information of the passenger and the specific action state is compiled into a database.
  • the keyword indicating the content and the depth of association with age, sex, behavior, etc. may be numerically entered.
  • a configuration may be used in which the depth of association between a passenger's propensity and content is numerically determined based on the passenger's preference and viewing history. And when there are multiple passengers, it is a configuration that controls the viewing state for the passengers with the highest relevance.
  • the force for recording map information, content, and the like on the recording medium 305 is not limited to this.
  • Map information, content, and the like may be recorded on a server outside the navigation apparatus 300.
  • the navigation device 300 acquires map information and content from the Sano via the network, for example, through the communication unit 308.
  • the acquired information is stored in RAM or the like.
  • the recording medium decoding unit 306 controls reading of information on the recording medium 305 and writing of Z.
  • the audio output unit 307 reproduces a sound such as an internal sound by controlling an output to the connected speaker 312. There may be one speaker 312 or a plurality of speakers.
  • the audio output unit 307 includes, for example, a D ZA converter that performs DZA conversion of audio digital information, an amplifier that amplifies an audio analog signal output from the DZA converter, and an AZD converter that performs AZD conversion of audio analog information. It can consist of
  • the communication unit 308 obtains various types of information from the outside.
  • the communication unit 308 is an FM multiplex tuner, a VICS (registered trademark) Z beacon receiver, a wireless communication device and other communication devices, and other communication via a communication medium such as a mobile phone, PHS, communication card and wireless LAN. Communicate with the device.
  • it may be a device that can communicate by radio broadcast radio waves, television broadcast radio waves, or satellite broadcasts.
  • Information acquired by the communication unit 308 includes traffic information such as traffic congestion and traffic regulations that are also distributed by the road traffic information communication system center, traffic information acquired by operators in their own way, and other information on the Internet. Public data and content.
  • the communication unit 308 may request traffic information or content from a server storing traffic information and content nationwide via the network and obtain the requested information.
  • it may be configured to receive video signals or audio signals from radio broadcasts, television broadcasts, or satellite broadcasts.
  • the route search unit 309 uses the map information acquired from the recording medium 305 via the recording medium decoding unit 306, the traffic information acquired via the communication unit 308, etc. Search for the optimal route.
  • the optimal route is the route that best matches the user's request.
  • the route guidance unit 310 is obtained from the optimum route information searched by the route search unit 309, the position information of the moving body acquired by the position acquisition unit 304, and the recording medium 305 via the recording medium decoding unit 306. Based on the obtained map information, route guidance information for guiding the user to the destination point is generated.
  • the route guidance information generated at this time may be information that considers the traffic jam information received by the communication unit 308.
  • the route guidance information generated by the route guidance unit 310 is output to the display unit 303 via the navigation control unit 301. It is.
  • the sound generation unit 311 generates information of various sounds such as a guide sound. That is, based on the route guidance information generated by the route guidance unit 310, the virtual sound source corresponding to the guidance point is set and the voice guidance information is generated, and this is output as voice via the navigation control unit 301. Output to part 307.
  • the passenger photographing unit 313 photographs a passenger.
  • the passenger may be photographed using either a moving image or a still image.
  • the passenger image and the behavior of the passenger are photographed and output to the navigation control unit 301.
  • the content information input unit 101 which is a functional configuration of the output control device 100 according to the embodiment, is configured by the user operation unit 302, the recording medium 305, and the communication unit 308, so that the passenger identification unit 102, the passenger
  • the information acquisition unit 103 and the behavior detection unit 104 are provided by the navigation control unit 301 and the passenger photographing unit 313, the viewing state control unit 105 is provided by the navigation control unit 301, and the content output unit 106 is provided by the display unit 303 and the speaker 312.
  • FIG. 4 is an explanatory diagram showing an example of the inside of a vehicle in which a navigation device that is useful in this embodiment is mounted.
  • the interior of the vehicle has a driver seat 411, a passenger seat 412, and a rear seat 413, around the driver seat 411 and the passenger seat 412.
  • a display device display unit 303
  • an acoustic device speaker 312
  • an information reproducing device 426a The passenger seat 412 is provided with a display device 421b and an information reproducing device 426b for the passenger of the rear seat 413, and an acoustic device (not shown) is provided behind the rear seat 413. It has been.
  • each information reproducing device 426 (426a, 426b) are provided with a photographing device (passenger photographing unit 313) 423, which can photograph a passenger.
  • a photographing device passingenger photographing unit 313) 423, which can photograph a passenger.
  • Each information reproducing device 426 (426a, 426b) may have a structure that can be attached to and detached from the vehicle.
  • FIG. 5 is a flowchart showing the contents of the process using the passenger information in the navigation device that is useful in the present embodiment.
  • the navigation apparatus 300 first determines whether or not it has received input of content information (step S501).
  • the content information may be input by, for example, the user operating the user operation unit 302 or being included in the content instructed to be reproduced.
  • the passenger photographing unit 313 next photographs a passenger image (step S502).
  • the passenger image is taken, for example, by taking a still image of the passenger's face.
  • the navigation control unit 301 generates passenger identification information from the passenger image captured in step S502 (step S503).
  • the identification information includes, for example, information obtained by extracting the feature points of the passenger's face, and is collated with the registered identification information recorded on the recording medium 305.
  • the navigation control unit 301 collates the registered identification information preliminarily registered in the recording medium 305 with the identification information generated in step S503, and matches the identification information. It is determined whether or not (step S504). If the identification information matches (step S504: Yes), the navigation control unit 301 reads the passenger preference information of the registered identification information that matches the identification information from the recording medium 305 (step S505).
  • the preference information is, for example, information related to the passenger's content preference. For music, it is information that includes genres such as Japanese music, Western music, and singers. Associated with
  • the navigation control unit 301 controls the display (display unit 303) based on the content information received in step S501 and the preference information read in step S505.
  • the direction of the display (display unit 303) is changed for the passenger most closely related to the content to be played (step S506), and the series of processing ends.
  • step S507 it is determined whether or not to register a passenger (step S507).
  • the registration of the passenger may be configured such that a request for registration of the passenger is displayed on the display (display unit 303) to prompt the passenger to determine whether or not to register.
  • step S507 when the passenger is not registered (step S507: No), the navigation control unit 301 outputs a display orientation selection request to the display (display unit 303) (step S509). ), Passenger power also accepts selection of the orientation of the display (display unit 303). Then, the navigation control unit 301 changes the direction of the display (display unit 303) based on the selection of the direction of the display (display unit 303) (step S506), and ends the series of processes.
  • step S507 when registering the passenger (step S507: Yes), the display (display unit 303) displays a message prompting the passenger to register, and so on. Registration identification information and preference information are registered (step S508). Registration of the registration identification information of the passenger may be performed by, for example, extracting feature points from the passenger image photographed by the passenger photographing unit 313 or by operating the user operation unit 302 and registering the age or sex. Also good. Then, the process returns to step S504 and the same processing is repeated.
  • the force configured to shoot a passenger image (step S502) when waiting for the input of content information and receiving the input (step S501: Yes).
  • Content information Before accepting the input, a passenger image may be taken (step S502). For example, it is possible to take a passenger image at predetermined intervals during boarding, when the vehicle engine is started, when the passenger operates, or during travel (step S502), and waiting for input of content information. Good.
  • the passenger image is taken and the identification information is generated based on the information obtained by extracting the feature points of the passenger's face, but the passenger is not the identification information of each passenger.
  • the configuration may be such that the number of people and the configuration are generated as identification information. Specifically, for example, when an adult is on the passenger seat 412 and a child is on the rear seat 413, content for adults is identified and the content for the adult is reproduced. In this case, the display device (display unit 303) 421a around the driver's seat 411 and the passenger seat 412 is controlled to face the passenger seat 412. Also, when content intended for children is played, Display device installed on the hand seat 412 (display section 303) 421b may be controlled to face the child seating position of the rear seat 413! /.
  • the direction of the force-speaking force 312 may be controlled by controlling the direction of the display (display unit 303). For example, if the content to be played is an animation theme song, the speaker 312 may be directed to the child's seating position.
  • FIG. 6 is a flowchart showing the contents of the process using the behavior information in the navigation device that works on the present embodiment.
  • the navigation device 300 determines whether or not it has received the input of content information (step S60 Do, for example, the passenger operates the user operation unit 302 to input the content information.
  • the content may be included in the content that has been performed or instructed to be played back.
  • step S601 the input of content information is waited for, and if it is received (step S601: Yes), then the passenger imaging unit 313 images the behavior of the passenger (step S602). ). For example, take a picture of the movement of the eyeball of the passenger.
  • the navigation control unit 301 generates occupant behavior information from the movement of the occupant's eye shot in step S602 (step S603).
  • the behavior information includes, for example, information obtained by extracting feature points of the passenger's eye movements, and specific behavior information including characteristics of eye movements such as sleepiness and fatigue recorded in the recording medium 305 in advance. Are to be verified.
  • the navigation control unit 301 collates the specific behavior information registered in advance in the recording medium 305 with the behavior information generated in step S603! /, Then, it is determined whether or not the passenger is in a specific behavior state (step S604). If it is in the specific behavior state (step S604: Yes), the navigation control unit 301 determines based on the content information received in step S601 and the specific behavior state determined in step S604. Then, the direction of the speaker 312 is changed (step S605). Then, a series of processing ends. For example, if the content to be played is a noisy song, the speaker 312 is not directed to a passenger who exhibits sleepy behavior.
  • the speaker 312 may be controlled to point at the time of a noisy song. If the content to be played is a relaxed song, point the speaker 312 at a passenger other than the driver who shows sleepy behavior.
  • step S604 if the passenger is not in the specific behavior state (step S604: No), the process returns to step S602 and the same processing is repeated. If the passenger is not in the specific behavior state, the direction of the speaker 312 when the passenger is not in the specific behavior state may be set in advance and played.
  • the configuration is such that the behavior of the passenger is photographed (Step S602) after waiting for the input of the content information and when it is received (Step S601: Yes).
  • a configuration may be adopted in which the behavior of the passenger is photographed before the input of the content information is accepted (step S602). For example, when boarding or when starting a vehicle engine, the passenger's behavior is captured at predetermined intervals during the operation of the passenger and during travel (step S602), and content information input is accepted. You can wait.
  • movement information is generated by photographing the movement of the passenger's eyeballs in step S603, but the opening / closing of the window, the movement of the entire body of the passenger, the volume in the vehicle, and the like.
  • force may generate behavior information. For example, when a passenger opens a window, it is assumed that the behavior is such that it gets hot and feels uncomfortable. Also good.
  • the direction of the force display (display unit 303) that changes the direction of the speaker 312 may be changed based on the content information and the specific behavior information.
  • the content viewing state control in the present embodiment is configured to be performed on one or more displays (display unit 303)! /, For the speaker 312. It is good also as a structure which performs control.
  • a display may be provided for each seat of the vehicle so that the content viewing state suitable for each passenger of each seat may be provided.
  • the processing using the passenger information and the processing using the behavior information are processed by combining the functions of the respective forces described with reference to Figs. 5 and 6. It is good also as a structure.
  • the passenger is photographed from the passenger photographing unit 313 such as a camera, and the identification information of the passenger or the behavior information is generated.
  • the passenger is photographed. Instead, it may be configured to generate identification information for identifying the passenger or passenger behavior information from information acquired by other sensors.
  • a seating sensor that detects the load distribution and the total load on the seat on which the passenger is seated may be used.
  • Information on the number and physique of the passengers can be obtained by the seating sensor.
  • One or more fingerprint sensors may be provided at predetermined positions in the vehicle. The fingerprint sensor can acquire the passenger's fingerprint information and identify the passenger.
  • a voice sensor such as a microphone may be provided in the car. Voice information such as the volume, sound quality, and pitch of the passenger can be acquired by the voice sensor, so that the passenger can be identified, and the number, gender, sleepiness, etc. can be determined.
  • a human body sensor that measures a pulse or the like may also be used. For example, by using information such as the pulse, the physical condition of the passenger can be grasped, and the behavior of the passenger can be determined.
  • the personal information may be obtained from the mobile phone owned by the passenger! Alternatively, information such as the number of people may be acquired by detecting the attachment / detachment of a seat belt or a child seat.
  • the user can view the content by his / her own operation. Even without changing, the viewing state can be changed based on the passenger information and behavior of the passenger. Therefore, it is possible to efficiently make the viewing state comfortable for the passenger.
  • the navigation apparatus 300 photographs the passenger and generates identification information and behavior information of the passenger. Since the identification information, behavior information, registered identification information, and specific behavior information can be compared to determine the viewing state of the content suitable for the passenger, the optimal viewing environment for the passenger that the passenger does not set himself It can be done.
  • the viewing state of the content can be changed based on the passenger's viewing history, for example, when the continuation of the content that the passenger has viewed halfway is played, the content is viewed halfway. Change the orientation of the display according to the passenger. Therefore, it is possible to reproduce the content that is completed for the passenger.
  • the output control method described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed when the recording medium force is also read by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Landscapes

  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Navigation (AREA)

Abstract

 移動体においてコンテンツの出力を制御する出力制御装置(100)において、コンテンツ情報入力部(101)は、コンテンツに関する情報(以下「コンテンツ情報」という)の入力を受け付け、搭乗者特定部(102)は、移動体の搭乗者を特定し、搭乗者情報取得部(103)は、特定された搭乗者に関する情報(以下「搭乗者情報」という)を取得する。そして、コンテンツ出力部(106)は、コンテンツを出力し、視聴状態制御部(105)は、コンテンツ情報入力部(101)によって入力されたコンテンツ情報と、搭乗者情報取得部(103)によって取得された搭乗者情報と、に基づいて、コンテンツ出力部(106)の制御によりコンテンツを視聴する視聴状態を変更する。

Description

明 細 書
出力制御装置、出力制御方法、出力制御プログラムおよびコンピュータ に読み取り可能な記録媒体
技術分野
[0001] この発明は、移動体においてコンテンツの出力に関する制御をおこなう出力制御装 置、出力制御方法、出力制御プログラムおよびコンピュータに読み取り可能な記録媒 体に関する。ただし、この発明は、上述した出力制御装置、出力制御方法、出力制 御プログラムおよびコンピュータに読み取り可能な記録媒体には限られない。 背景技術
[0002] 従来より、車両などの移動体において、移動体の搭乗者は、移動体に搭載された ディスプレイなどの表示装置やスピーカなどの音響装置を介して様々なコンテンツを 視聴できる。様々な種類のコンテンツは、たとえば、ラジオ放送やテレビ放送、 CD (C ompact Disk)や DVD (Digital Versatile Disk)などの記録媒体に記録された 音楽や映像などで、搭乗者は、音響装置の出力音量や表示装置の画面の向きの調 整などをおこなってコンテンツを視聴する。
[0003] 一方、コンテンツの視聴に関して、各搭乗者における車内環境 (車載機器の位置や 動作状況など)の好みを、各搭乗者のプロファイル情報として、 IC (Integrated Cir cuit)カードを用いた ID (IDentification)カードに記憶させる。そして、 IDカードか ら各搭乗者のプロファイル情報を読み取って、車内環境の調整をおこなう提案がされ ている(たとえば、下記特許文献 1参照。 ) o
[0004] 特許文献 1:特開 2002— 104105号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、上述した従来技術は、各搭乗者が、プロファイル情報を記憶した ID カードを作成して所持する必要や、 IDカードの紛失および破損を予防する措置をと る必要があり、搭乗者の負担が増大するという問題が一例として挙げられる。また、 I Dカードを利用して、車内環境の調整をおこなうため、 IDカードを所持していない搭 乗者の嗜好にあわせた車内環境の設定をおこなえないという問題が一例として挙げ られる。
課題を解決するための手段
[0006] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかる出力制御 装置は、移動体においてコンテンツの出力を制御する出力制御装置において、コン テンッに関する情報 (以下「コンテンツ情報」という)の入力を受け付ける入力手段と、 前記移動体の搭乗者を特定する特定手段と、前記特定手段によって特定された搭 乗者に関する情報 (以下「搭乗者情報」 t 、う)を取得する搭乗者情報取得手段と、 前記コンテンツを出力する出力手段と、前記入力手段によって入力されたコンテンツ 情報と、前記搭乗者情報取得手段によって取得された搭乗者情報と、に基づいて、 前記コンテンツを視聴する視聴状態を、前記出力手段の制御により変更する制御手 段と、を備えることを特徴とする。
[0007] また、請求項 4の発明に力かる出力制御装置は、移動体においてコンテンツの出力 を制御する出力制御装置において、コンテンツ情報の入力を受け付ける入力手段と 、前記搭乗者の挙動を検出する挙動検出手段と、前記コンテンツを出力する出力手 段と、前記入力手段によって入力されたコンテンツ情報と、前記挙動検出手段によつ て検出された結果と、に基づいて、前記コンテンツを視聴する視聴状態を、前記出力 手段の制御により変更する制御手段と、を備えることを特徴とする。
[0008] また、請求項 7の発明に力かる出力制御方法は、移動体においてコンテンツの出力 を制御する出力制御方法において、コンテンツ情報の入力を受け付ける入力工程と 、前記移動体の搭乗者を特定する特定工程と、前記特定工程によって特定された搭 乗者の搭乗者情報を取得する搭乗者情報取得工程と、前記コンテンツを出力する出 力工程と、前記入力工程によって入力されたコンテンツ情報と、前記搭乗者情報取 得工程によって取得された搭乗者情報と、に基づいて、前記コンテンツを視聴する視 聴状態を、前記出力工程の制御により変更する制御工程と、を含むことを特徴とする
[0009] また、請求項 8の発明に力かる出力制御方法は、移動体においてコンテンツの出力 を制御する出力制御方法において、コンテンツ情報の入力を受け付ける入力工程と 、前記搭乗者の挙動を検出する挙動検出工程と、前記コンテンツを出力する出力ェ 程と、前記入力工程によって入力されたコンテンツ情報と、前記挙動検出工程によつ て検出された結果と、に基づいて、前記コンテンツを視聴する視聴状態を、前記出力 工程の制御により変更する制御工程と、を含むことを特徴とする。
[0010] また、請求項 9の発明に力かる出力制御プログラムは、請求項 7または 8に記載の 出力制御方法をコンピュータに実行させることを特徴とする。
[0011] また、請求項 10の発明にかかるコンピュータに読み取り可能な記録媒体は、請求 項 9に記載の出力制御プログラムを記録したことを特徴とする。
図面の簡単な説明
[0012] [図 1]図 1は、本実施の形態に力かる出力制御装置の機能的構成の一例を示すプロ ック図である。
[図 2]図 2は、本実施の形態に力かる出力制御装置の処理の内容を示すフローチヤ ートである。
[図 3]図 3は、本実施例に力かるナビゲーシヨン装置のハードウェア構成の一例を示 すブロック図である。
[図 4]図 4は、本実施例に力かるナビゲーシヨン装置が搭載された車両内部の一例を 示す説明図である。
[図 5]図 5は、本実施例に力かるナビゲーシヨン装置において搭乗者情報を用いた処 理の内容を示すフローチャートである。
[図 6]図 6は、本実施例に力かるナビゲーシヨン装置において挙動情報を用いた処理 の内容を示すフローチャートである。
符号の説明
[0013] 100 出力制御装置
101 コンテンツ情報入力部
102 搭乗者特定部
103 搭乗者情報取得部
104 挙動検出部
105 視聴状態制御部 106 コンテンツ出力部
発明を実施するための最良の形態
[0014] 以下に添付図面を参照して、この発明にかかる出力制御装置、出力制御方法、出 力制御プログラムおよびコンピュータに読み取り可能な記録媒体の好適な実施の形 態を詳細に説明する。
[0015] (実施の形態)
(出力制御装置の機能的構成)
図 1を用いて、本実施の形態に力かる出力制御装置の機能的構成について説明 する。図 1は、本実施の形態に力かる出力制御装置の機能的構成の一例を示すプロ ック図である。
[0016] 図 1において、出力制御装置 100は、コンテンツ情報入力部 101と、搭乗者特定部 102と、搭乗者情報取得部 103と、挙動検出部 104と、視聴状態制御部 105と、コン テンッ出力部 106と、を含み構成されている。
[0017] コンテンツ情報入力部 101は、コンテンツに関する情報(以下「コンテンツ情報」とい う)の入力を受け付ける。コンテンツ情報は、たとえば、映像や音声のコンテンツや、 そのコンテンツの内容を示す情報などを含んでいる。より具体的には、コンテンツの 内容を示すキーワード、コンテンツのタイトノレ、コンテンツのジヤンノレおよびコンテンツ のテロップなどである。
[0018] 搭乗者特定部 102は、搭乗者を特定する。搭乗者の特定は、たとえば、各搭乗者 における、移動体の所有者との関係 (本人、親類、友人、他人など)の特定である。ま た、搭乗者情報取得部 103は、搭乗者特定部 102によって特定された搭乗者に関 する搭乗者情報を取得する。搭乗者情報は、たとえば、搭乗者に関する嗜好、年齢 、性別などの特徴や、搭乗者の配置や人数などの構成を含む情報である。
[0019] 挙動検出部 104は、搭乗者の挙動を検出する。搭乗者の挙動は、たとえば、眠気 や疲れや体調など搭乗者の身体的状況を含む情報であり、所定の挙動を示す搭乗 者の配置や人数などを含む情報でもよ 、。
[0020] 視聴状態制御部 105は、コンテンツ情報入力部 101によって入力されたコンテンツ 情報と、搭乗者情報取得部 103によって取得された搭乗者情報と、挙動検出部 104 によって検出された搭乗者の挙動のうち、少なくともコンテンツ情報を含む 2つ以上の 情報に基づいて、コンテンツ出力部 106を制御することで、コンテンツを視聴する視 聴状態を変更する。視聴状態は、たとえば、コンテンツの音声情報を出力する音響 装置の出力部の出力方向、音質や、コンテンツの映像情報を出力する表示装置の 表示方向、画質などを含む状態である。
[0021] コンテンツ出力部 106は、視聴状態制御部 105による制御にしたがいコンテンツを 出力する。コンテンツの出力は、たとえば、移動体に搭載されたディスプレイなどの表 示装置やスピーカなどの音響装置によりおこなう。
[0022] (出力制御装置の処理の内容)
つぎに、図 2を用いて、本実施の形態に力かる出力制御装置 100の処理の内容に ついて説明する。図 2は、本実施の形態に力かる出力制御装置の処理の内容を示す フローチャートである。図 2のフローチャートにおいて、まず、コンテンツ情報入力部 1 01は、コンテンツ情報の入力を受け付けた力否かを判断する (ステップ S201)。コン テンッ情報の入力は、たとえば、図示しない通信部からコンテンツに関する電波を受 信しておこなったり、図示しない記憶部力も読み込んでおこなってもよい。また、搭乗 者が図示しない操作部カゝらコンテンツの種類などを指示する構成でもよい。
[0023] ステップ S201において、コンテンツ情報の入力を受け付けるのを待って、受け付け た場合 (ステップ S201: Yes)は、搭乗者特定部 102は、搭乗者を特定する (ステップ S202)。搭乗者の特定は、たとえば、移動体の所有者と搭乗者との関係の特定であ る。
[0024] つぎに、搭乗者情報取得部 103は、ステップ S202において特定された搭乗者に 関する搭乗者情報を取得する (ステップ S203)。搭乗者情報は、たとえば、搭乗者に 関する嗜好、コンテンツの視聴履歴、年齢、性別などの特徴や、搭乗者の配置や人 数などの構成を含む情報である。また、挙動検出部 104は、搭乗者の挙動を検出す る (ステップ S 204)。搭乗者の挙動は、たとえば、眠気や疲れや体調など搭乗者の身 体的状況を含む情報である。なお、本フローチャートにおいては、搭乗者情報を取 得して (ステップ S203)、搭乗者の挙動を検出する (ステップ S 204)こととしているが 、搭乗者の挙動を検出して (ステップ S204)、搭乗者情報を取得する (ステップ S203 )順序でもよぐどちらかのステップをおこなわな 、構成でもよ 、。
[0025] そして、視聴状態制御部 105は、ステップ S201にお 、て入力されたコンテンツ情 報と、ステップ S203において取得された搭乗者情報と、ステップ S204において検出 された搭乗者の挙動のうち、少なくともコンテンツ情報を含む 2つ以上の情報に基づ いて、コンテンツ出力部 106を制御することで、視聴状態を変更する (ステップ S205) 。視聴状態は、たとえば、コンテンツの音声情報を出力する音響装置の出力部の出 力方向、音質や、コンテンツの映像情報を出力する表示装置の表示方向、画質など を含む状態である。
[0026] つづいて、コンテンツ出力部 106は、視聴状態制御部 105の制御にしたがって、コ ンテンッを出力する (ステップ S206)。コンテンツの出力は、たとえば、移動体に搭載 されたディスプレイなどの表示装置やスピーカなどの音響装置によりおこなう。そして 、一連の処理を終了する。
[0027] なお、上述のフローチャートにおいては、コンテンツ情報の入力を受け付けるのを 待って、受け付けた場合 (ステップ S201 : Yes)に、搭乗者を特定し (ステップ S202) 、搭乗者情報を取得し (ステップ S 203)、挙動を検出する (ステップ S204)構成として いるが、コンテンツ情報の入力を受け付ける前に、前述のステップ S 202〜ステップ S 204をおこなう構成としてもよい。たとえば、あらカゝじめ搭乗時に、搭乗者を特定し (ス テツプ S202)、搭乗者情報を取得し (ステップ S203)、挙動を検出して (ステップ S20 4)、コンテンツ情報の入力を受け付けるのを待って、受け付けた場合 (ステップ S201 : Yes)に、コンテンツ出力部 106を制御して、視聴状態を変更する (ステップ S205) 構成でもよい。
[0028] 以上説明したように、本実施の形態に力かる出力制御装置、出力制御方法、出力 制御プログラムおよびコンピュータに読み取り可能な記録媒体によれば、ユーザは、 自らの操作によりコンテンツの視聴状態を変更しなくても、搭乗者の搭乗者情報およ び挙動に基づいて、視聴状態の変更ができる。したがって、効率的に搭乗者に快適 な視聴状態の提供を図ることができる。
実施例
[0029] 以下に、本発明の実施例について説明する。本実施例では、たとえば、車両(四輪 車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置によって、本発明 の出力制御装置を実施した場合の一例について説明する。
[0030] (ナビゲーシヨン装置のハードウェア構成)
図 3を用いて、本実施例に力かるナビゲーシヨン装置のハードウェア構成について 説明する。図 3は、本実施例に力かるナビゲーシヨン装置のハードウェア構成の一例 を示すブロック図である。
[0031] 図 3において、ナビゲーシヨン装置 300は、車両などの移動体に搭載されており、ナ ピゲーシヨン制御部 301と、ユーザ操作部 302と、表示部 303と、位置取得部 304と 、記録媒体 305と、記録媒体デコード部 306と、音声出力部 307と、通信部 308と、 経路探索部 309と、経路誘導部 310と、音声生成部 311と、スピーカ 312と、搭乗者 撮影部 313と、によって構成される。
[0032] ナビゲーシヨン制御部 301は、ナビゲーシヨン装置 300全体を制御する。ナビゲー シヨン制御部 301は、たとえば所定の演算処理を実行する CPU (Central Process ing Unit)や、各種制御プログラムを格納する ROM (Read Only Memory)、お よび、 CPUのワークエリアとして機能する RAM (Random Access Memory)など によって構成されるマイクロコンピュータなどによって実現することができる。
[0033] ナビゲーシヨン制御部 301は、経路誘導に際し、位置取得部 304によって取得され た現在位置に関する情報と、記録媒体 305から記録媒体デコード部 306を経由して 得られた地図情報に基づいて、地図上のどの位置を走行している力を算出し、算出 結果を表示部 303へ出力する。また、ナビゲーシヨン制御部 301は、経路誘導に際し 、経路探索部 309、経路誘導部 310、音声生成部 311との間で経路誘導に関する情 報の入出力をおこない、その結果得られる情報を表示部 303および音声出力部 307 へ出力する。
[0034] また、ナビゲーシヨン制御部 301は、搭乗者撮影部 313により撮影された搭乗者の 搭乗者像あるいは挙動に基づいて、後述する搭乗者の識別情報や挙動情報を生成 する。そして、コンテンツに関するコンテンツ情報と、搭乗者の識別情報や挙動情報 に基づいて、音声や映像などのコンテンツを視聴する視聴状態を制御する。コンテン ッ情報は、たとえば、映像や音声のコンテンツや、そのコンテンツの内容を示す情報 などを含んでおり、ユーザがユーザ操作部 302を操作して入力したり、コンテンツ自 体に登録された情報である。より具体的には、コンテンツの内容を示すキーワード、コ ンテンッのタイトノレ、コンテンツのジヤンノレおよびコンテンツのテロップなどである。ま た、視聴状態は、たとえば、ユーザがユーザ操作部 302を操作して、記録媒体 305 に記録された音楽や映像、あるいは通信部 308により受信するラジオ放送やテレビ 放送などの再生を指示された際、コンテンツの音声情報を出力する音響装置のスピ 一力 312の向きや、コンテンツの映像情報を出力する表示部 303の表示方向などを 含む状態である。なお、表示部 303やスピーカ 312が複数であれば、それぞれにつ いて制御をおこなう構成としてもよい。視聴状態の制御は、たとえば、後述するコンテ ンッに関連づけられた搭乗者情報や特定挙動状態となる搭乗者に適した視聴状態と なるように制御することである。より具体的には、再生するコンテンツに最も関連深い 搭乗者に対して、表示部 303の向きを変更したり、スピーカ 312の向きをあわせる制 御などでもよい。
[0035] ユーザ操作部 302は、ユーザがリモコンやスィッチ、タツチパネルなどの操作手段 を操作して入力した情報を取得してナビゲーシヨン制御部 301に対して出力する。
[0036] 表示部 303は、たとえば、 CRT (Cathode Ray Tube)、 TFT液晶ディスプレイ、 有機 ELディスプレイ、プラズマディスプレイなどを含む。表示部 303は、具体的には 、たとえば、映像 IZF (インターフェース)や映像 IZFに接続された映像表示用のデ イスプレイ装置によって構成することができる。映像 IZFは、具体的には、たとえば、 ディスプレイ装置全体の制御をおこなうグラフィックコントローラと、即時表示可能な画 像情報を一時的に記憶する VRAM (Video RAM)などのバッファメモリと、グラフィ ックコントローラから出力される画像情報に基づいて、ディスプレイ装置を表示制御す る制御 ICなどによって構成される。そして、表示部 303は、ナビゲーシヨン制御部 30 1の出力に関する制御にしたがい、交通情報や地図情報や経路誘導に関する情報 やナビゲーシヨン制御部 301から出力される映像に関するコンテンツ、その他各種情 報を表示する。
[0037] 位置取得部 304は、 GPSレシーバおよび車速センサーや角速度センサーや加速 度センサーなどの各種センサー力も構成され、移動体の現在位置 (ナビゲーシヨン装 置 300の現在位置)の情報を取得する。 GPSレシーバは、 GPS衛星からの電波を受 信し、 GPS衛星との幾何学的位置を求める。なお、 GPSとは、 Global Positioning
Systemの略称であり、 4つ以上の衛星からの電波を受信することによって地上で の位置を正確に求めるシステムである。 GPSレシーバは、 GPS衛星からの電波を受 信するためのアンテナ、受信した電波を復調するチューナーおよび復調した情報に 基づいて現在位置を算出する演算回路などによって構成される。
[0038] 記録媒体 305には、各種制御プログラムや各種情報がコンピュータに読み取り可 能な状態で記録されている。この記録媒体 305は、たとえば、 HD (Hard Disk)や D VD (Digital Versatile Disk)、 CD (Compact Disk)、メモリカードによって実現 することができる。なお、記録媒体 305は、記録媒体デコード部 306による情報の書 き込みを受け付けるとともに、書き込まれた情報を不揮発に記録するようにしてもよい
[0039] また、記録媒体 305には、経路探索および経路誘導に用いられる地図情報が記録 されている。記録媒体 305に記録されている地図情報は、建物、河川、地表面などの 地物 (フィーチャ)をあらわす背景データと、道路の形状をあらわす道路形状データと を有しており、表示部 303の表示画面において 2次元または 3次元に描画される。ナ ピゲーシヨン装置 300が経路誘導中の場合は、記録媒体デコード部 306によって記 録媒体 305から読み取られた地図情報と位置取得部 304によって取得された移動体 の位置を示すマークとが表示部 303に表示されることとなる。
[0040] また、記録媒体 305には、あらかじめ登録された、搭乗者を識別するための登録識 別情報や搭乗者の挙動を判断する特定挙動情報、および映像や音楽などのコンテ ンッが記録されている。登録識別情報は、たとえば、カメラなどで撮影する搭乗者像 の特徴点を抽出した情報を含むもので、顔のパターンや目の虹彩や指紋データや音 声データなどである。また、特定挙動情報は、たとえば、眠気や疲れなど特定挙動状 態に関する特徴を抽出した情報を含むもので、まぶたの動きや音量の大小や心拍数 などである。
[0041] また、記録媒体 305に記録されたコンテンツは、前述したコンテンツ情報を有してい る構成でもよぐナビゲーシヨン制御部 301は、出力するコンテンツのコンテンツ情報 を読み出す。コンテンツ情報は、たとえば、搭乗者の登録識別情報に基づいて識別 された搭乗者の搭乗者情報や、搭乗者の特定挙動情報に基づ!/、て判断される搭乗 者の特定挙動状態に関連づけられている。また、ナビゲーシヨン制御部 301における 搭乗者の識別および挙動の判断の結果に応じて、ナビゲーシヨン制御部 301が視聴 状態に関する制御をおこなう際に読み込む構成でもよい。搭乗者情報は、たとえば、 嗜好、視聴履歴、年齢、性別などの特徴や、搭乗者の配置、人数などの構成を含む 情報である。
[0042] コンテンツ情報と搭乗者の搭乗者情報や特定挙動状態との関連は、たとえば、コン テンッ情報に含まれるテロップやタイトルやキーワードやジャンルやテロップに登場す る単語の回数など力 判断できるコンテンツの内容に応じた搭乗者の搭乗者情報や 特定挙動状態が関連づけられている。より具体的には、性別によって好みの違うコン テンッゃ年齢層によって好みの違うコンテンツや搭乗者の視聴履歴に適したコンテン ッ (前回の続きのコンテンツ)などである。また、搭乗者が眠くなつたときに視聴するコ ンテンッなどであってもよ!/、。
[0043] また、記録媒体 305は、上述したコンテンツ情報と搭乗者の搭乗者情報や特定挙 動状態との関連を、あら力じめデータベース化したものを記録する構成でもよい。デ ータベース化したものは、たとえば、コンテンツの内容を示すキーワードと、年齢や性 別や挙動などとの関連深さを数値ィ匕しておいてもよい。また、搭乗者の嗜好や視聴 履歴などから、搭乗者の性向とコンテンツとの関連深さを数値ィ匕する構成でもよい。 そして、複数の搭乗者がいる場合には、もっとも関連深さの高い搭乗者に対して、視 聴状態を制御する構成としてもょ 、。
[0044] なお、本実施例では地図情報やコンテンツなどを記録媒体 305に記録するようにし た力 これに限るものではない。地図情報やコンテンツなどは、ナビゲーシヨン装置 3 00外部のサーバなどに記録されていてもよい。その場合、ナビゲーシヨン装置 300は 、たとえば、通信部 308を通じて、ネットワークを介してサーノから地図情報やコンテ ンッを取得する。取得された情報は RAMなどに記憶される。
[0045] 記録媒体デコード部 306は、記録媒体 305に対する情報の読み取り Z書き込みの 制御をおこなう。 [0046] 音声出力部 307は、接続されたスピーカ 312への出力を制御することによって、案 内音などの音声を再生する。スピーカ 312は、 1つであってもよいし、複数であっても よい。この音声出力部 307は、たとえば、音声デジタル情報の DZA変換をおこなう D ZAコンバータと、 DZAコンバータから出力される音声アナログ信号を増幅する増 幅器と、音声アナログ情報の AZD変換をおこなう AZDコンバータと、から構成する ことができる。
[0047] 通信部 308は、各種情報を外部から取得する。たとえば、通信部 308は、 FM多重 チューナー、 VICS (登録商標) Zビーコンレシーバ、無線通信機器およびその他の 通信機器や、携帯電話、 PHS、通信カードおよび無線 LANなどの通信媒体を介し て他の通信機器との通信をおこなう。あるいは、ラジオ放送による電波やテレビ放送 による電波や衛星放送により通信をおこなうことのできる機器などでもよい。
[0048] 通信部 308によって取得される情報は、道路交通情報通信システムセンター力も配 信される渋滞や交通規制などの交通情報や、事業者が独自の方式で取得した交通 情報や、その他インターネット上の公開データおよびコンテンツなどである。通信部 3 08は、たとえば、全国の交通情報やコンテンツを蓄積しているサーバに対しネットヮ ークを介して、交通情報あるいはコンテンツを要求し、要求した情報を取得するように してもよい。また、ラジオ放送による電波やテレビ放送などの電波や衛星放送などか ら、映像ある ヽは音声に関する信号を受信する構成でもよ ヽ。
[0049] 経路探索部 309は、記録媒体 305から記録媒体デコード部 306を介して取得され る地図情報や、通信部 308を介して取得される交通情報などを利用して、出発地点 力 目的地点までの最適経路を探索する。ここで、最適経路とは、ユーザの要望に 最も合致する経路である。
[0050] 経路誘導部 310は、経路探索部 309によって探索された最適経路情報、位置取得 部 304によって取得された移動体の位置情報、記録媒体 305から記録媒体デコード 部 306を経由して得られた地図情報に基づいて、ユーザを目的地点まで誘導するた めの経路誘導情報の生成をおこなう。このとき生成される経路誘導情報は、通信部 3 08によって受信した渋滞情報を考慮したものであってもよい。経路誘導部 310で生 成された経路誘導情報は、ナビゲーシヨン制御部 301を介して表示部 303へ出力さ れる。
[0051] 音声生成部 311は、案内音などの各種音声の情報を生成する。すなわち、経路誘 導部 310で生成された経路誘導情報に基づいて、案内ポイントに対応した仮想音源 の設定と音声ガイダンス情報の生成をおこな 、、これをナビゲーシヨン制御部 301を 介して音声出力部 307へ出力する。
[0052] 搭乗者撮影部 313は、搭乗者を撮影する。搭乗者の撮影は、動画あるいは静止画 のどちらでもよぐたとえば、搭乗者像や搭乗者の挙動を撮影して、ナビゲーシヨン制 御部 301へ出力する。
[0053] なお、実施の形態に力かる出力制御装置 100の機能的構成であるコンテンツ情報 入力部 101はユーザ操作部 302や記録媒体 305や通信部 308によって、搭乗者特 定部 102、搭乗者情報取得部 103および挙動検出部 104はナビゲーシヨン制御部 3 01および搭乗者撮影部 313によって、視聴状態制御部 105はナビゲーシヨン制御 部 301によって、コンテンツ出力部 106は表示部 303やスピーカ 312によって、それ ぞれその機能を実現する。
[0054] つぎに、図 4を用いて、本実施例に力かるナビゲーシヨン装置 300が搭載された車 両内部について説明する。図 4は、本実施例に力かるナビゲーシヨン装置が搭載され た車両内部の一例を示す説明図である。
[0055] 図 4において、車両内部は、運転席シート 411と、助手席シート 412と、後部座席シ ート 413と、を有しており、運転席シート 411と助手席シート 412との周囲には、表示 装置 (表示部 303) 421aおよび音響装置 (スピーカ 312) 422ならびに情報再生機器 426aが設けられている。また、助手席シート 412には、後部座席シート 413の搭乗者 に向けて、表示装置 421bおよび情報再生機器 426bが設けられており、後部座席シ ート 413の後方には図示しない音響装置が設けられている。
[0056] 車両の天井部 414および各情報再生機器 426 (426a, 426b)には、撮影装置 (搭 乗者撮影部 313) 423が設けられており、搭乗者を撮影できる。なお、各情報再生機 器 426 (426a, 426b)は、車両に対して着脱可能な構造を備えていてもよい。
[0057] (ナビゲーシヨン装置 300の処理の内容)
つぎに、図 5、図 6を用いて、本実施例に力かるナビゲーシヨン装置 300の処理の 内容について説明する。図 5は、本実施例に力かるナビゲーシヨン装置において搭 乗者情報を用いた処理の内容を示すフローチャートである。本図では、搭乗者情報 として、搭乗者の好みである嗜好情報を利用した場合について説明する。図 5のフロ 一チャートにおいて、まず、ナビゲーシヨン装置 300は、コンテンツ情報の入力を受け 付けたか否かを判断する (ステップ S501)。コンテンツ情報の入力は、たとえば、搭 乗者がユーザ操作部 302を操作しておこなったり、再生の指示のあったコンテンツに 含まれる構成でもよい。ここで、コンテンツ情報の入力を受け付けるのを待って、受け 付けた場合 (ステップ S501 : Yes)は、つぎに、搭乗者撮影部 313は、搭乗者像を撮 影する (ステップ S502)。搭乗者像の撮影は、たとえば、搭乗者の顔について静止画 を撮影する。
[0058] そして、ナビゲーシヨン制御部 301は、ステップ S502において撮影した搭乗者像か ら、搭乗者の識別情報を生成する (ステップ S503)。識別情報は、たとえば、搭乗者 の顔の特徴点を抽出した情報を含むもので、あら力じめ記録媒体 305に記録された 登録識別情報と照合をおこなうものである。
[0059] つづいて、ナビゲーシヨン制御部 301は、記録媒体 305にあら力じめ登録されてい る登録識別情報と、ステップ S503において生成された識別情報との照合をおこない 、識別情報が一致する力否かを判断する (ステップ S504)。そして、識別情報が一致 する場合 (ステップ S 504 : Yes)は、ナビゲーシヨン制御部 301は、記録媒体 305から 、識別情報と一致した登録識別情報の搭乗者の嗜好情報を読み込む (ステップ S50 5)。嗜好情報は、たとえば、搭乗者のコンテンツの好みに関する情報であり、音楽で あれば邦楽や洋楽や歌手、ある 、は映像であればアニメや-ユースなどのジャンル を含む情報であり、視聴するコンテンツと関連づけられて 、る。
[0060] そして、ナビゲーシヨン制御部 301は、ステップ S501において入力を受け付けたコ ンテンッ情報と、ステップ S505において読み込んだ嗜好情報と、に基づいて、デイス プレイ (表示部 303)を制御して、再生するコンテンツと最も関連の深い搭乗者に向け て、ディスプレイ(表示部 303)の向きを変更して (ステップ S506)、一連の処理を終 了する。
[0061] また、ステップ S504において、識別情報が一致しない場合 (ステップ S504 : No)は 、搭乗者の登録をおこなうか否かを判断する (ステップ S507)。搭乗者の登録は、た とえば、ディスプレイ (表示部 303)に搭乗者の登録を要求する旨を表示して、搭乗者 に登録をおこなうか否かの判断を促す構成としてもよい。
[0062] ステップ S507において、搭乗者の登録をおこなわない場合 (ステップ S 507 : No) は、ナビゲーシヨン制御部 301は、ディスプレイ(表示部 303)へディスプレイの向きの 選択要求を出力し (ステップ S509)、搭乗者力もディスプレイ (表示部 303)の向きの 選択を受け付ける。そして、ナビゲーシヨン制御部 301は、ディスプレイ (表示部 303) の向きの選択に基づいて、ディスプレイ(表示部 303)の向きを変更して(ステップ S5 06)、一連の処理を終了する。
[0063] また、ステップ S 507において、搭乗者の登録をおこなう場合 (ステップ S 507 : Yes) は、ディスプレイ (表示部 303)に搭乗者の登録を促す旨を表示するなどして、搭乗 者の登録識別情報、嗜好情報を登録する (ステップ S508)。搭乗者の登録識別情報 の登録は、たとえば、搭乗者撮影部 313により撮影した搭乗者像から特徴点を抽出 したり、ユーザがユーザ操作部 302を操作して、年齢や性別などを登録してもよい。 そして、ステップ S504にもどり、同様の処理を繰り返す。
[0064] なお、図 5の説明では、コンテンツ情報の入力を受け付けるのを待って、受け付け た場合 (ステップ S501: Yes)に、搭乗者像を撮影する (ステップ S502)構成としてい る力 コンテンツ情報の入力を受け付ける前に、搭乗者像を撮影する (ステップ S502 )構成としてもよい。たとえば、あら力じめ、搭乗時や車両のエンジンスタート時や搭乗 者の操作時および走行中における所定の間隔ごとに搭乗者像を撮影して (ステップ S502)、コンテンツ情報の入力を待ってもよい。
[0065] また、図 5の説明では、搭乗者像を撮影して、搭乗者の顔の特徴点を抽出した情報 により識別情報を生成しているが、各搭乗者の識別情報ではなぐ搭乗者の人数や 構成を識別情報として生成する構成でもよい。具体的には、たとえば、助手席シート 412に大人が乗車し、後部座席シート 413に子供が乗車している場合、搭乗者の人 数や構成を識別して、大人向けのコンテンツが再生される場合には、運転席シート 4 11と助手席シート 412との周囲の表示装置 (表示部 303) 421aの向きを助手席シー ト 412に向けるよう制御する。また、子供向けのコンテンツが再生される場合には、助 手席シート 412に設置された表示装置 (表示部 303) 421bの向きを後部座席シート 4 13の子供の着座位置に向けるよう制御してもよ!/、。
[0066] また、図 5の説明では、ディスプレイ(表示部 303)の向きを制御することとした力 ス ピー力 312の向きを制御してもよい。たとえば、再生するコンテンツがアニメのテーマ ソングなどであれば、子供の着座位置にスピーカ 312が向くようにしてもよい。
[0067] つづいて、搭乗者撮影部 313により搭乗者の挙動を撮影した場合について説明す る。図 6は、本実施例に力かるナビゲーシヨン装置において挙動情報を用いた処理の 内容を示すフローチャートである。図 6のフローチャートにおいて、まず、ナビゲーショ ン装置 300は、コンテンツ情報の入力を受け付けた力否かを判断する (ステップ S60 D oコンテンツ情報の入力は、たとえば、搭乗者がユーザ操作部 302を操作しておこ なったり、再生の指示のあったコンテンツに含まれる構成でもよい。
[0068] ステップ S601において、コンテンツ情報の入力を受け付けるのを待って、受け付け た場合 (ステップ S601 :Yes)は、つぎに、搭乗者撮影部 313は、搭乗者の挙動を撮 影する (ステップ S602)。搭乗者の挙動の撮影は、たとえば、搭乗者の眼球の動きを 撮影してちょい。
[0069] そして、ナビゲーシヨン制御部 301は、ステップ S602において撮影した搭乗者の眼 球の動きから、搭乗者の挙動情報を生成する (ステップ S603)。挙動情報は、たとえ ば、搭乗者の眼球の動きの特徴点を抽出した情報を含むもので、あらかじめ記録媒 体 305に記録された眠気や疲れなどにおける眼球の動きの特徴を含む特定挙動情 報と照合をおこなうものである。
[0070] つづいて、ナビゲーシヨン制御部 301は、記録媒体 305にあら力じめ登録されてい る特定挙動情報と、ステップ S603にお 、て生成された挙動情報との照合をおこな!/、 、搭乗者が特定挙動状態である力否かを判断する (ステップ S604)。そして、特定挙 動状態である場合 (ステップ S604 : Yes)は、ナビゲーシヨン制御部 301はステップ S 601にお 、て入力を受け付けたコンテンツ情報と、ステップ S604で判断された特定 挙動状態に基づいて、スピーカ 312の向きを変更する(ステップ S605)。そして、一 連の処理を終了する。スピーカ 312の向きの変更は、たとえば、再生するコンテンツ が騒がしい曲であれば、眠い挙動を示す搭乗者にスピーカ 312を向けない。一方で 、眠い挙動を示す搭乗者が運転者であれば、騒がしい曲の際にスピーカ 312を向け るよう制御してもよい。また、再生するコンテンツがゆったりとした曲であれば、眠い挙 動を示す運転者以外の搭乗者にスピーカ 312を向けてもょ ヽ。
[0071] また、ステップ S604にお 、て、搭乗者が特定挙動状態でな 、場合 (ステップ S604 : No)は、ステップ S602へ戻り、同様の処理を繰り返す。なお、搭乗者が特定挙動状 態でなければ、特定挙動状態でない場合のスピーカ 312の向きをあら力じめ設定し ておき、再生する構成としてもよい。
[0072] なお、図 6の説明では、コンテンツ情報の入力を受け付けるのを待って、受け付け た場合 (ステップ S601: Yes)に、搭乗者の挙動を撮影する (ステップ S602)構成とし ているが、コンテンツ情報の入力を受け付ける前に、搭乗者の挙動を撮影する (ステ ップ S602)構成としてもよい。たとえば、あらかじめ、搭乗時や車両のエンジンスター ト時ゃ搭乗者の操作時および走行中における所定の間隔ごとに搭乗者の挙動を撮 影して (ステップ S602)、コンテンツ情報の入力を受け付けるのを待ってもよい。
[0073] また、図 6の説明では、ステップ S603において搭乗者の眼球の動きを撮影して挙 動情報を生成しているが、窓の開け閉めや搭乗者の体全体の動きや車内の音量な ど力も挙動情報を生成してもよい。たとえば、搭乗者が窓を開けた場合は、暑がつて V、たり気分がわるくなつて 、たりする挙動とし、体全体の動きや音量で騒 、で 、る挙 動に関する挙動情報を生成してもよい。
[0074] また、図 6の説明では、コンテンツ情報と、特定挙動情報と、に基づいてスピーカ 31 2の向きを変更している力 ディスプレイ (表示部 303)の向きを変更する構成としても よい。
[0075] なお、本実施例におけるコンテンツの視聴状態の制御は、 1つ以上のディスプレイ( 表示部 303)ある!/、はスピーカ 312に対しておこなう構成であるが、それぞれにつ!/ヽ て、制御をおこなう構成としてもよい。たとえば、車両の各シートごとにディスプレイ (表 示部 303)を設けて、各シートの搭乗者ごとに適したコンテンツの視聴状態としてもよ い。
[0076] また、本実施例では、図 5および図 6を用いて、搭乗者情報を用いた処理と挙動情 報を用いた処理にっ 、てそれぞれ説明した力 それぞれの機能をあわせて処理する 構成としてもよい。
[0077] また、本実施例では、カメラなどの搭乗者撮影部 313から搭乗者を撮影して、搭乗 者の識別情報ある 、は挙動情報を生成する構成として 、るが、搭乗者を撮影する代 わりに、その他センサーによって取得する情報から、搭乗者を識別する識別情報ある いは搭乗者の挙動情報を生成する構成としてもょ ヽ。
[0078] 識別情報あるいは挙動情報の生成は、たとえば、搭乗者が着座したシートにおける 荷重分布や全荷重を検知する着座センサーを用いてもよい。着座センサーにより、 搭乗者の人数や体格に関する情報などが取得できる。また、車内の所定の位置に 1 つ以上の指紋センサーを設けてもよい。指紋センサーにより、搭乗者の指紋情報を 取得して、搭乗者の識別ができる。また、車内にマイクなど音声センサーを設けてもよ い。音声センサーにより、搭乗者の音量や音質や音程などの音声情報を取得して、 搭乗者の識別ができ、また、人数や性別や眠気などが判断できる。また、脈拍などを 計測する人体センサーを用いてもよい。たとえば、脈拍などの情報を利用することで 、搭乗者の身体状況を把握することができ、搭乗者の挙動を判断することができる。
[0079] また、搭乗者の所有する携帯電話から個人の情報を取得する構成としてもよ!、。あ るいは、シートベルトやチャイルドシートの脱着を検知して、人数などの情報を取得し てもよい。
[0080] 以上説明したように、本実施の形態に力かる出力制御装置、出力制御方法、出力 制御プログラムおよびコンピュータに読み取り可能な記録媒体によれば、ユーザは、 自らの操作によりコンテンツの視聴状態を変更しなくても、搭乗者の搭乗者情報およ び挙動に基づいて、視聴状態の変更ができる。したがって、効率的に搭乗者に快適 な視聴状態とすることできる。
[0081] また、以上説明したように、本実施例に力かるナビゲーシヨン装置 300は、搭乗者を 撮影して搭乗者の識別情報と挙動情報を生成する。そして、識別情報、挙動情報と 登録識別情報、特定挙動情報を比較して、搭乗者に適したコンテンツの視聴状態を 決定できるため、搭乗者が自ら設定することなぐ搭乗者に最適な視聴環境とするこ とがでさる。
[0082] また、搭乗者の撮影をする代わりに、着座センサーや指紋センサーや音声センサ 一など、様々な手段で取得する情報を利用することもできるため、汎用性を向上させ ることがでさる。
[0083] また、搭乗者の挙動にあわせたコンテンツの視聴状態を変更するため、騒がしい曲 の再生される際に運転手が眠気におそわれた場合は、運転者にスピーカを向けれ ば、眠気の解消につながり、不都合のある挙動の矯正ができる。
[0084] また、搭乗者の視聴履歴に基づ!/、てコンテンツの視聴状態を変更できるため、たと えば、搭乗者が途中まで視聴したコンテンツの続きが再生される場合には、途中まで 視聴した搭乗者にあわせてディスプレイの向きなどを変更する。したがって、搭乗者 に完結したコンテンツの再生ができる。
[0085] なお、本実施の形態で説明した出力制御方法は、あら力じめ用意されたプログラム をパーソナル 'コンピュータやワークステーションなどのコンピュータで実行することに より実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体力も読み出されることによって実行される。またこの プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体においてコンテンツの出力を制御する出力制御装置において、
コンテンツに関する情報 (以下「コンテンツ情報」という)の入力を受け付ける入力手 段と、
前記移動体の搭乗者を特定する特定手段と、
前記特定手段によって特定された搭乗者に関する情報 (以下「搭乗者情報」という) を取得する搭乗者情報取得手段と、
前記コンテンツを出力する出力手段と、
前記入力手段によって入力されたコンテンツ情報と、前記搭乗者情報取得手段に よって取得された搭乗者情報と、に基づいて、前記コンテンツを視聴する視聴状態を 、前記出力手段の制御により変更する制御手段と、
を備えることを特徴とする出力制御装置。
[2] 前記搭乗者情報は、前記搭乗者の嗜好を含む情報であることを特徴とする請求項
1に記載の出力制御装置。
[3] 前記搭乗者情報は、前記搭乗者のコンテンツの視聴履歴を含む情報であることを 特徴とする請求項 1に記載の出力制御装置。
[4] 移動体においてコンテンツの出力を制御する出力制御装置において、
コンテンツ情報の入力を受け付ける入力手段と、
前記搭乗者の挙動を検出する挙動検出手段と、
前記コンテンツを出力する出力手段と、
前記入力手段によって入力されたコンテンツ情報と、前記挙動検出手段によって検 出された結果と、に基づいて、前記コンテンツを視聴する視聴状態を、前記出力手段 の制御により変更する制御手段と、
を備えることを特徴とする出力制御装置。
[5] 前記出力手段は、前記コンテンツの映像情報を出力するものであり、
前記制御手段は、前記映像情報の表示部の表示方向を制御することを特徴とする 請求項 1または 4に記載の出力制御装置。
[6] 前記出力手段は、前記コンテンツの音声情報を出力するものであり、 前記制御手段は、前記音声情報の出力部の出力方向を制御することを特徴とする 請求項 1または 4に記載の出力制御装置。
[7] 移動体においてコンテンツの出力を制御する出力制御方法において、
コンテンツ情報の入力を受け付ける入力工程と、
前記移動体の搭乗者を特定する特定工程と、
前記特定工程によって特定された搭乗者の搭乗者情報を取得する搭乗者情報取 得工程と、
前記コンテンツを出力する出力工程と、
前記入力工程によって入力されたコンテンツ情報と、前記搭乗者情報取得工程に よって取得された搭乗者情報と、に基づいて、前記コンテンツを視聴する視聴状態を 、前記出力工程の制御により変更する制御工程と、
を含むことを特徴とする出力制御方法。
[8] 移動体においてコンテンツの出力を制御する出力制御方法において、
コンテンツ情報の入力を受け付ける入力工程と、
前記搭乗者の挙動を検出する挙動検出工程と、
前記コンテンツを出力する出力工程と、
前記入力工程によって入力されたコンテンツ情報と、前記挙動検出工程によって検 出された結果と、に基づいて、前記コンテンツを視聴する視聴状態を、前記出力工程 の制御により変更する制御工程と、
を含むことを特徴とする出力制御方法。
[9] 請求項 7または 8に記載の出力制御方法をコンピュータに実行させることを特徴とす る出力制御プログラム。
[10] 請求項 9に記載の出力制御プログラムを記録したことを特徴とするコンピュータに読 み取り可能な記録媒体。
PCT/JP2006/320081 2005-10-14 2006-10-06 出力制御装置、出力制御方法、出力制御プログラムおよびコンピュータに読み取り可能な記録媒体 WO2007043464A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-300822 2005-10-14
JP2005300822 2005-10-14

Publications (1)

Publication Number Publication Date
WO2007043464A1 true WO2007043464A1 (ja) 2007-04-19

Family

ID=37942707

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/320081 WO2007043464A1 (ja) 2005-10-14 2006-10-06 出力制御装置、出力制御方法、出力制御プログラムおよびコンピュータに読み取り可能な記録媒体

Country Status (1)

Country Link
WO (1) WO2007043464A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009113725A (ja) * 2007-11-08 2009-05-28 Pioneer Electronic Corp 機器制御装置、機器制御方法、機器制御プログラムおよび記録媒体
JP2011065561A (ja) * 2009-09-18 2011-03-31 Yupiteru Corp 車載用電子機器及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001037000A (ja) * 1999-07-15 2001-02-09 Kenwood Corp 車載用オーディオ再生システム及びオーディオ再生方法
JP2003306091A (ja) * 2002-04-15 2003-10-28 Nissan Motor Co Ltd ドライバ判定装置
JP2004037292A (ja) * 2002-07-04 2004-02-05 Sony Corp ナビゲーション装置、ナビゲーション装置のサービス装置及びナビゲーション装置によるサービス提供方法
JP2005280434A (ja) * 2004-03-29 2005-10-13 Mitsubishi Electric Corp 車載用ディスプレイ装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001037000A (ja) * 1999-07-15 2001-02-09 Kenwood Corp 車載用オーディオ再生システム及びオーディオ再生方法
JP2003306091A (ja) * 2002-04-15 2003-10-28 Nissan Motor Co Ltd ドライバ判定装置
JP2004037292A (ja) * 2002-07-04 2004-02-05 Sony Corp ナビゲーション装置、ナビゲーション装置のサービス装置及びナビゲーション装置によるサービス提供方法
JP2005280434A (ja) * 2004-03-29 2005-10-13 Mitsubishi Electric Corp 車載用ディスプレイ装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009113725A (ja) * 2007-11-08 2009-05-28 Pioneer Electronic Corp 機器制御装置、機器制御方法、機器制御プログラムおよび記録媒体
JP2011065561A (ja) * 2009-09-18 2011-03-31 Yupiteru Corp 車載用電子機器及びプログラム

Similar Documents

Publication Publication Date Title
JP4533897B2 (ja) 処理制御装置、そのプログラム、および、そのプログラムを記録した記録媒体
JP4516111B2 (ja) 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体
EP1267590B1 (en) Contents presenting system and method
JP5045302B2 (ja) 自動車用情報提供装置
JP2001056225A (ja) エージェント装置
WO2007046269A1 (ja) 情報提示装置、情報提示方法、情報提示プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007032278A1 (ja) 経路探索装置、経路探索方法、経路探索プログラムおよびコンピュータに読み取り可能な記録媒体
JP2003109162A (ja) エージェント装置
JP2024041746A (ja) 情報処理装置
JP2007108134A (ja) コンテンツデータ再生装置
JPH07286854A (ja) 電子地図装置
WO2007023900A1 (ja) コンテンツ提供装置、コンテンツ提供方法、コンテンツ提供プログラムおよびコンピュータに読み取り可能な記録媒体
WO2006095688A1 (ja) 情報再生装置、情報再生方法、情報再生プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007043464A1 (ja) 出力制御装置、出力制御方法、出力制御プログラムおよびコンピュータに読み取り可能な記録媒体
JP6785889B2 (ja) サービス提供装置
WO2007020808A1 (ja) コンテンツ提供装置、コンテンツ提供方法、コンテンツ提供プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007108337A1 (ja) コンテンツ再生装置、コンテンツ再生方法、コンテンツ再生プログラムおよびコンピュータに読み取り可能な記録媒体
JP2006190206A (ja) 処理装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP7386076B2 (ja) 車載装置及び応答出力制御方法
US11413530B2 (en) Information processing apparatus, information processing system, non-transitory computer readable medium, and vehicle
JP7360495B1 (ja) 生体状態誘導装置、生体状態誘導方法、及びプログラム
JP2001304896A (ja) 車両用ナビゲーション装置
US20240176818A1 (en) Content playback system, information processing apparatus, and content playback controlling application
JP2006189977A (ja) 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体
JP4741933B2 (ja) 情報提供装置、情報提供方法、情報提供プログラムおよびコンピュータに読み取り可能な記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06811408

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP