WO2013187131A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2013187131A1
WO2013187131A1 PCT/JP2013/061997 JP2013061997W WO2013187131A1 WO 2013187131 A1 WO2013187131 A1 WO 2013187131A1 JP 2013061997 W JP2013061997 W JP 2013061997W WO 2013187131 A1 WO2013187131 A1 WO 2013187131A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
reproduction
marker
image
information
Prior art date
Application number
PCT/JP2013/061997
Other languages
English (en)
French (fr)
Inventor
裕也 花井
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2014521001A priority Critical patent/JP6128123B2/ja
Priority to EP13804985.3A priority patent/EP2860968B1/en
Priority to BR112014030582A priority patent/BR112014030582A2/pt
Priority to CN201380029785.9A priority patent/CN104380717B/zh
Priority to US14/405,934 priority patent/US9837121B2/en
Publication of WO2013187131A1 publication Critical patent/WO2013187131A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/002Programmed access in sequence to a plurality of record carriers or indexed parts, e.g. tracks, thereof, e.g. for editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/22Means responsive to presence or absence of recorded information signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • G11B31/006Arrangements for the associated working of recording or reproducing apparatus with related apparatus with video camera or receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • the present invention relates to an information processing apparatus, an information processing method, and a program for executing augmented reality (AR) display.
  • AR augmented reality
  • an image obtained by superimposing a virtual image other than a captured image on a captured image of a camera is called an augmented reality (AR) image
  • AR augmented reality
  • mobile terminals such as smartphones equipped with a camera function and a display in addition to a communication function have become widespread, and applications using augmented reality (AR) images are often used in these smartphones.
  • the reproduction cannot be resumed from the stopped position, and the reproduction from the start position of the content is executed again.
  • Such a situation occurs, for example, in a configuration that provides information to the user by setting a marker on a street advertisement or the like that is in a crowded place where people are coming and going, making it difficult to transmit information to the user Let That is, in a place where traffic is intense, it is difficult for the person to move into the captured image and to have the camera continuously photograph the marker. As a result, the reproduction from the content start position is repeatedly executed, and it becomes difficult to reproduce the content to the end.
  • the content is content including an image and sound
  • the data processing unit stops reproduction of only the image when the feature image cannot be detected. Then, a process for continuously reproducing the sound is executed.
  • the data processing unit executes a fade-out process for decreasing the content output level with time when the feature image cannot be detected.
  • the data processing unit includes: As an aspect of content reproduction processing at the time of redetection of the feature image, (A) Resume processing for playing back content from a resume point stored in memory, or (B) Replay processing for playing back content from the beginning, Instruction information for selecting one of the processes is input, and content reproduction according to the input information is executed.
  • the data processing unit includes: As an aspect of content reproduction processing at the time of redetection of the feature image, (A) Resume processing for playing back content from a resume point stored in memory, or (B) Replay processing for playing back content from the beginning, A user interface that enables input of instruction information on which process to select is displayed on the display unit.
  • the feature image is an identification mark included in a captured image.
  • the second aspect of the present disclosure is: An imaging unit for capturing images; A communication unit that performs communication with the server; A data processing unit that performs detection of a feature image from a captured image of the imaging unit and executes reproduction of content provided from a server; The data processing unit When the detection of the feature image from the captured image becomes impossible, the reproduction of the received content from the server is stopped, and the reproduction stop position is transmitted to the server as resume point information.
  • the information processing apparatus executes the content reproduction from the resume point position by inputting the resume point information from the server on the condition that the feature image is subsequently detected again.
  • the fourth aspect of the present disclosure is: A communication unit that performs communication with the client; A storage unit storing content to be provided to the client; A data processing unit that executes a feature image detection process from a photographed image of the client and a content providing process; The data processing unit There is a server that executes a feature image detection process from a photographed image of the client and provides feature image detection information to the client.
  • the fifth aspect of the present disclosure is: An information processing method executed in an information processing apparatus,
  • the data processing unit executes content reproduction processing according to the feature image based on detection of the feature image from the captured image obtained by imaging of the imaging unit,
  • the data processing unit A process of specifying a resume point that is a playback position of the content according to the timing at which the feature image cannot be detected;
  • the sixth aspect of the present disclosure is: A program for executing information processing in an information processing apparatus; Based on the feature image being detected from the captured image obtained by imaging by the imaging unit, the data processing unit is caused to execute a content reproduction process corresponding to the feature image, The program is stored in the data processing unit. A process of specifying a resume point that is a playback position of the content according to the timing at which the feature image cannot be detected; A program for executing the reproduction process of the content from a position corresponding to the resume point in response to the feature image being detected again after the feature image cannot be detected.
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • FIG. 1 is a diagram illustrating a usage example of the processing of the present disclosure.
  • the user 21 captures an image including the poster 10 using an information processing apparatus (mobile terminal) 30 such as a smartphone having a camera function.
  • the captured image is, for example, a moving image.
  • a marker (identifier) such as a cyber code (two-dimensional code) is printed.
  • a marker (identifier) such as a cyber code (two-dimensional code) is an identification target.
  • various feature images for example, the following features Images can be identified.
  • the information processing device 30 includes marker information via a communication unit. Send the shooting information to the server.
  • the server recognizes that the information processing apparatus (client) 30 is capturing an image including the poster 10 based on the shooting information received from the information processing apparatus (client) 30, and has already been stored in the content database in the server.
  • Content for example, content composed of a moving image and sound obtained by photographing a person printed on the poster 10 is acquired and transmitted to the information processing apparatus 30.
  • the reproduction virtual image 31 displayed on the information processing apparatus 30 is an image of a person who does not actually exist in the place where the user is present. However, it is displayed on the screen of the display unit of the information processing apparatus 30 as if standing at the place where the user 21 is located.
  • the information processing apparatus 30 can record content including the virtual image 31 and sound.
  • the content composed of the virtual image and the sound has been described as an example of processing provided from the server.
  • the content is stored in the storage unit of the information processing device 30, and the photographed identifier (marker) is stored. Based on the above, it is also possible to reproduce the content acquired by executing the content search corresponding to the marker.
  • the information processing apparatus 30 starts content reproduction when the marker 11 is recognized from the captured image of the information processing apparatus 30.
  • content playback is stopped when the marker is no longer recognized, and when the marker is re-recognized again, the same content is displayed. It was common to perform a process such as playing from the beginning.
  • FIG. 2 shows the following two states as the state in which an image is being captured in the information processing apparatus 30 owned by the user.
  • A Marker recognition state
  • B Marker temporary lost state
  • the marker recognition state is a state in which the marker 11 is captured in a photographed image photographed by the imaging unit (camera) of the information processing apparatus 30 possessed by the user and marker recognition is possible. In this state, the content difference is executed based on the marker recognition, the reproduced virtual picture image 31 is displayed on the display unit, and the reproduced sound 32 is output even from the speaker.
  • the marker temporary lost state is a state in which the marker 11 is lost from the captured image captured by the imaging unit (camera) of the information processing apparatus 30 possessed by the user and the marker cannot be recognized temporarily.
  • FIG. 3 is a diagram illustrating a plurality of states in which the information processing apparatus of the present disclosure is set and transition processing of each state.
  • the information processing apparatus is set to one of the following four states.
  • (A) Marker recognition success state (b) Marker tracking state (c) Marker temporary lost state (d) Marker complete lost state
  • (d) Marker complete lost state The information processing apparatus according to the present disclosure is one of the four states (a) to (d). Set to state.
  • the initial state is set to “(d) marker complete lost state”. Thereafter, when the marker is recognized from the photographed image, the state transits to “(a) marker recognition success state” according to the transition line (S1) shown in FIG.
  • (c) Marker temporary lost state when a marker is detected in the captured image within a predetermined threshold time ⁇ t, the transition is made to “(b) Marker tracking state” according to the transition line (S4). .
  • the “(c) marker temporary lost state if the marker is not detected in the captured image within the predetermined threshold time ⁇ t and exceeds the predetermined threshold time ⁇ t, according to the transition line (S5), “ (D) Transition to the marker complete lost state.
  • the information processing apparatus performs such state transition. Furthermore, as shown in FIG. (A) Marker recognition success state (b) Marker tracking state In these two states, content reproduction consisting of an image and sound is executed. That is, as shown in the marker recognition state shown in FIG. 2A, the reproduction virtual image 31 is superimposed on the captured image on the display unit of the information processing apparatus 30, and the reproduction sound 32 is output via the speaker. .
  • FIG. 4 is a diagram illustrating a flowchart describing a sequence including content reproduction control processing executed by the information processing apparatus of the present disclosure.
  • processing shown in the flow of FIG. 4 is performed by, for example, a data processing unit of the information processing apparatus, that is, a data processing unit having a CPU having a program execution function, according to a program (application) stored in the storage unit of the information processing apparatus. Executed under control.
  • a data processing unit of the information processing apparatus that is, a data processing unit having a CPU having a program execution function, according to a program (application) stored in the storage unit of the information processing apparatus. Executed under control.
  • the initial state of the information processing apparatus is the “marker complete lost state”, and when a marker is detected from the captured image, the state transitions to the “marker recognition success state”.
  • code information such as a cyber code can be applied as described with reference to FIG.
  • image information of a poster may be used, or various information such as a number printed on a poster can be used as a marker.
  • Step S103 In step S102, when it is determined that the marker is in a “lost marker state” and the process proceeds to step S103, a marker detection process from the captured image is executed.
  • Step S104 it is determined whether or not the marker detection process in step S103 is successful. If the marker detection process is successful, the state is changed to the “marker recognition success state”, and the process proceeds to step S105. On the other hand, if the marker detection process is not successful, the process returns to the kame image acquisition process in step S101, and the processes in and after step S101 are repeated.
  • Step S105 If the marker detection process is successful in step S104, the state is changed to the “marker recognition success state”, and the process proceeds to step S105. In step S105, it is determined whether or not the reproduction position information is recorded in the memory (storage unit) of the information processing apparatus. This reproduction position information is reproduction stop position information in the previous content reproduction process.
  • the storage location of the reproduction position information may be a memory (storage unit) of the information processing apparatus, or may be a storage unit in a server that performs communication via the communication unit of the information processing apparatus. .
  • the flow shown in FIG. 4 is executed while executing communication processing with the server.
  • step S105 it is determined whether or not the content reproduction is stopped halfway and the reproduction position information is recorded in the memory (storage unit) of the information processing apparatus. If the reproduction position information is recorded, the process proceeds to step S106. If reproduction position information is not recorded, the process proceeds to step S107.
  • the playback content is content including the playback virtual image 31 and the playback audio 32 described with reference to FIG.
  • This content is acquired from the storage unit of the information processing apparatus. Or in the structure using a server, it is good also as a structure acquired from the server in communication. In the following description, an example of processing for playing back content stored in the storage unit of the information processing apparatus will be described.
  • Step S115 After the content reproduction is stopped in step S114, the content reproduction stop position information is recorded in the memory in step S115.
  • the image reproduction is stopped in advance, and only the sound continues to be reproduced, and then the sound reproduction is stopped.
  • the reproduction stop position stored in the memory is the image reproduction stop position or Set either of the audio playback stop positions.
  • the search processing for the reproduction position information from the memory in step S105 described above is processing for extracting the reproduction stop position information from the memory.
  • the reproduction position information is successfully acquired from the memory.
  • the reproduction start position is determined.
  • the image and sound are stopped from the image or audio stop position stopped in step S114. Starts playback at the same time.
  • the marker is lost at the time of the content reproduction position (T1), that is, the marker detection from the photographed image has failed. From this point, the measurement of the lost time is started. That is, the elapsed time from (T1) shown in the figure is measured.
  • the playback time (T1) of the content is an image playback stop position, and this image playback stop position is recorded in the memory.
  • the image playback stop position is used as playback position information recorded in the memory.
  • the marker is lost, the measurement of the lost time is started, and when the marker lost state continues until the elapsed time reaches a predetermined threshold time ⁇ t, the marker is completely lost.
  • the audio playback is also stopped. That is, as shown in FIG. 5, the audio reproduction is stopped at the content reproduction position (T2).
  • the marker detection process is continuously executed from the captured image, and when the marker detection is successful, the reproduction process at the second marker recognition in FIG. 5B is executed.
  • FIG. 5 shows a process when a marker lost occurs at the content playback position (T3) in the content playback process at the time of (B) second marker recognition.
  • the example of the content reproduction position (T3 to T4) shown in the figure is an example of processing when the marker is detected again before the elapsed time from the occurrence of the lost time exceeds the predetermined threshold time ⁇ t. That is, the process is performed when the marker is detected again at the time of the content playback position (T4) before the elapsed time from the occurrence of the loss exceeds the predetermined threshold time ⁇ t.
  • the state transition is as follows. Before T3, marker tracking state, T3 to T4 are marker temporary lost state, Marker recognition success status at T4, After T4, again the marker tracking state, Such a state transition occurs.
  • the playback stop position is recorded, and playback from the playback stop position is started when playback is resumed. No processing is performed. Also, even if marker loss occurs, audio playback continues for a predetermined time. For example, when the user points the camera to the marker position during that period, image playback is resumed, and continuous content playback is executed. It is also possible to make it.
  • FIG. 6 as in FIG. (A) Playback processing at the time of first marker recognition, (B) Playback process at the time of second marker recognition, These are shown individually.
  • the content includes images and sound.
  • Image reproduction is stopped at the content reproduction position (T1), but audio reproduction is continuously executed.
  • the fade-out process for gradually decreasing the audio level is executed. This fade-out audio reproduction process is executed during the reproduction process of only the audio at the content reproduction position (T1 to T2) shown in FIG.
  • the marker detection process is continuously executed from the captured image, and when the marker detection is successful, the reproduction process at the second marker recognition in FIG. 6B is executed.
  • FIG. 6B similarly to FIG. 5B, processing when a marker lost occurs at the content reproduction position (T3) and the marker is detected again before the predetermined threshold time ⁇ t is exceeded.
  • An example is shown.
  • the marker lost occurs at the content playback position (T3), the image playback stops, but the audio playback continues without stopping.
  • a fade-out process for gradually reducing the playback sound level is executed.
  • the information processing apparatus 100 includes a data processing unit 110, a storage unit 120, an imaging unit (camera) 130, a display unit 140, and a speaker 150.
  • the data processing unit 110 includes a marker recognition tracking unit 111, a reproduction control unit 112, an image display processing unit 113, and an audio reproduction processing unit 114.
  • the storage unit 120 stores content 121 and reproduction position information 122.
  • the reproduction control unit 112 executes each process of steps S104 to S107 and steps S110 to S115 of the flow shown in FIG. That is, the marker recognition result information from the marker recognition tracking unit 111 is input, and content reproduction control is executed. In this content playback control, the state transition described above with reference to FIG. 3 is executed, and further, playback control described with reference to FIG. 5 and FIG. Perform processing to do.
  • the reproduction position information 122 corresponding to the reproduction stop position in the storage unit 120 is executed, and when the reproduction is resumed, the reproduction position information 122 stored in the storage unit 120 is obtained and A process for restarting the reproduction process from the position is executed.
  • the playback content is the content 121 of the storage unit 120, which is content including image and audio information.
  • the image display processing unit 113 superimposes the image data in the content 121 on the captured image and outputs it to the display unit 140.
  • the audio reproduction processing unit 114 outputs the audio data in the content 121 via the speaker 150. Note that when the fade-in and fade-out processing described above with reference to FIG. 6 is executed, the image display processing unit 113 and the audio reproduction processing unit 114 each output data according to an instruction from the reproduction control unit 112. Perform level control.
  • the playback control unit 112 executes processing according to the user input information. For example, (1) Resume processing for executing halfway reproduction from the reproduction stop position described in the above-described embodiment, or (2) Replay processing for executing content playback from the beginning instead of from the playback stop position; Any one of (1) and (2) can be selected and reproduced in accordance with a user input.
  • This input unit 160 Specifically, it can be realized as a user interface (IF) displayed on the display unit 140.
  • IF user interface
  • a user interface display example is shown in FIG.
  • These UIs are displayed on the display unit 140 when a marker is detected again after the marker lost, for example.
  • the content is played back from the beginning by touching this icon. That is, playback from the previous playback stop position is not executed, and content playback from the beginning is executed.
  • the touch input for the playback instruction icon 251 [Replay] is not detected for a predetermined time from the beginning shown in FIG. 9A, the processing described in the above-described embodiment, that is, playback from the previous playback stop position is executed.
  • This reproduction control is executed by the reproduction control unit 112.
  • the information processing apparatus 300 illustrated in FIG. 11 is a configuration example in the case where the content 401 and the reproduction position information 402 are stored in the server 400.
  • the information processing apparatus 300 communicates with the server 400 via the communication unit 115, acquires the content 401, transmits and receives the reproduction position information 402, and performs reproduction control.
  • the reproduction control in this case is the same processing as the processing according to the flow of FIG. 4 described above.
  • content acquisition and playback position information storage and retrieval processing are executed by communication with the server 400 via the communication unit 115.
  • the data processing unit 110 of the information processing apparatus 300 as a client executes marker detection from the captured image of the imaging unit 130, stops playback of the content received from the server 400 when the marker is lost, and playback is stopped.
  • the stop position information is transmitted to the server, the playback stop position information is input from the server on the condition that the subsequent marker re-detection is performed, and the content playback from the position corresponding to the playback stop position is executed.
  • the information processing apparatus 500 shown in FIG. 12 has a configuration in which the content 401 and the reproduction position information 402 are stored in the server 400 as in the configuration shown in FIG. .
  • the information processing apparatus 500 communicates with the server 400 via the communication unit 115, and provides the imaging unit (camera) 130 captured image 501 to the marker recognition tracking unit 403 of the server 400.
  • the marker recognition follow-up unit 403 of the server 400 identifies the marker from the captured image and provides the marker identification information 502, which is the marker identification result, to the information processing apparatus 500.
  • the reproduction control unit 112 of the information processing apparatus 500 receives the content from the server 400, further receives the marker identification information 501, and uses the received marker identification information 501 according to the flow of FIG. 4 described above. A process similar to the process is executed.
  • the data processing unit 110 of the information processing apparatus 500 as a client transmits the captured image 501 of the imaging unit 130 to the server 400 via the communication unit 115, and the marker identification information based on the captured image from the server 400. 502 is received and reproduction of the provided content from the server 400 is executed.
  • the data processing unit 110 stops the content reproduction, transmits the content position at which the reproduction is stopped to the server 400 via the communication unit 115, and then On the condition that the marker is again detected, the content position information transmitted from the server 400 to the server 400 immediately before is acquired, and the content from the position corresponding to the position is reproduced.
  • the processing load of the information processing apparatus 500 is greatly reduced.
  • the embodiment has been described in which the reproduction of content is controlled according to the lost marker, that is, the presence or absence of marker detection from the captured image of the information processing apparatus. Specifically, it is an example of processing for executing content reproduction control according to information on whether or not a marker is detected and the elapsed time from the marker lost.
  • Information used as a trigger for content reproduction control in the information processing apparatus may be information other than this marker. Specifically, for example, the following information can be used as a trigger for content reproduction control.
  • (A) Scene information of playback content (b) Sensor information of information processing device (c) Incoming call information of information processing device
  • the playback control unit of the information processing device inputs such information and performs content playback control It is good also as a structure.
  • the playback control unit of the information processing apparatus inputs metadata (attribute information) set with the playback content. For example, when the metadata is metadata indicating a content break, the content is stopped and the stop position is recorded in the memory. At the time of resuming playback, control is performed to restart the content from the position where the playback was stopped.
  • metadata attribute information
  • the reproduction control unit of the information processing device inputs sensor information of the information processing device, for example, acceleration sensor information, and detects a sudden movement of the information processing device.
  • the reproduction of the content is stopped, and the reproduction stop position information is recorded in the memory. This process is performed, for example, when the user stores the information processing apparatus in the pocket. At the time of resuming playback, control is performed to restart the content from the position of the content that has been stopped.
  • the playback control unit of the information processing apparatus inputs the incoming call information of the information processing apparatus, and stops the reproduction of content when there is an incoming call
  • the playback stop position information is recorded in the memory. This process is a control that enables a content to be resumed from the position of the content whose reproduction has been stopped, for example, when a call is made after an incoming call and reproduction is resumed after the call ends.
  • the information processing apparatus performs a process of superimposing and displaying the image data constituting the content on the captured image of the imaging unit in the content reproduction process.
  • the content is content including an image and sound, and the data processing unit executes a process of stopping reproduction of only the image and continuing to reproduce sound when the feature image cannot be detected.
  • the information processing apparatus according to any one of (1) to (9), wherein the feature image is an identification mark included in a captured image.
  • the data processing unit stops the content reproduction in response to an input of scene information of the reproduction content, sensor information of the information processing device, or telephone incoming call information of the information processing device.
  • the information processing apparatus according to any one of (1) to (10), wherein a process of recording the stopped content position in a memory is executed.
  • an imaging unit that captures an image
  • a communication unit that performs communication with the server
  • a data processing unit that performs detection of a feature image from a captured image of the imaging unit and executes reproduction of content provided from a server
  • the data processing unit When the detection of the feature image from the captured image becomes impossible, the reproduction of the received content from the server is stopped, and the reproduction stop position is transmitted to the server as resume point information.
  • An information processing apparatus that inputs the resume point information from the server and performs content reproduction from the resume point position on the condition that the feature image is subsequently detected again.
  • an imaging unit that captures an image
  • a communication unit that performs communication with the server
  • a data processing unit that transmits the captured image of the imaging unit to the server via the communication unit, receives feature image detection information based on the captured image from the server, and reproduces the provided content from the server;
  • the data processing unit When the feature image detection information from the server indicates that the feature image cannot be detected, the content reproduction is stopped, and the content position where the reproduction is stopped is transmitted as resume point information to the server via the communication unit,
  • An information processing apparatus that receives and reproduces content from a position corresponding to the resume point position from the server, on condition that subsequent feature image re-detection is performed.
  • the series of processing described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

マーカ等の特徴画像に応じたコンテンツ再生処理において、マーカロスト時、およびマーカ再検出時の改善された再生制御を実現する。撮像部の撮影画像からマーカ等の特徴画像の検出を実行し、マーカ検出に応じてコンテンツ再生を実行する。撮影画像からのマーカ検出が不能となったマーカロスト時に、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録し、その後のマーカ再検出を条件として、メモリからコンテンツ位置を取得し、取得したコンテンツ位置からコンテンツを再生する。コンテンツは画像および音声を含むコンテンツであり、マーカロスト時に画像のみ再生を停止し、音声再生を継続し、マーカロスト時からの経過時間が予め設定した閾値時間を超えた場合に、音声の再生を停止する。

Description

情報処理装置、および情報処理方法、並びにプログラム
 本開示は、情報処理装置、および情報処理方法、並びにプログラムに関する。特に、拡張現実(AR:Augmented Reality)表示を実行する情報処理装置、および情報処理方法、並びにプログラムに関する。
 例えばカメラの撮影画像に、撮影画像以外の仮想画像を重畳した画像は、拡張現実(AR:Augmented Reality)画像と呼ばれ、昨今、様々な分野で利用されている。
 特に、近年、通信機能に加えカメラ機能とディスプレイを備えたスマートフォンなどの携帯端末が普及し、これらのスマートフォンにおいて拡張現実(AR)画像を適用したアプリケーションが多く利用されている。
 AR画像の1つの利用例として、以下のような例がある。
 例えばスマートフォン等の携帯端末のカメラ機能を用いて、あるオブジェクト(被写体)を撮影すると、オブジェクト情報、例えば撮影されたオブジェクトに印刷されたサイバーコード(Cyber-Code)などのマーカを識別し、識別マーカに基づいて選択されたキャラクタや人物などの仮想画像を撮影画像に重畳して表示するとともに、その仮想画像が話かけるような音声を出力する。
 仮想画像は、例えば撮影オブジェクトに関連する仮想的なキャラクタの画像や、予め撮影済みの人物や景色など、様々である。携帯端末に出力される仮想画像や音声情報は、携帯端末の記憶部、あるいは携帯端末とネットワーク接続したサーバから取得される。
 なお、AR画像の生成、表示処理について開示した従来技術として、例えば特許文献1(特開2012-58838号公報)がある。
 しかし、このような仮想画像や音声出力は、撮影画像からマーカが認識されたことをトリガとして開始される。従って、例えばユーザが携帯端末の撮像部(カメラ)の方向を変更して撮影画像中からマーカがはずれてしまうと、仮想画像や音声出力が停止してしまう。
 再度、ユーザが撮像部(カメラ)の方向を変更して撮影画像中にマーカを入れると、また同じ仮想画像や音声出力が最初から再生される。
 すなわち、以下の2つの処理によって仮想画像の再生および停止が制御される。
 (処理1)撮影画像からのマーカ認識による仮想画像と音声の再生開始、
 (処理2)撮影画像からのマーカロストによる仮想画像と音声の再生終了、
 例えば、マーカ認識によって再生されるコンテンツが30秒程度の画像と音声から構成される情報について、30秒のコンテンツを全て視聴するためには、ユーザは、その30秒の間、携帯端末を動かさずにマーカの撮影状態を維持していなければならなくなる。
 例えば、30秒の間に、一度でもマーカが撮影画像からはずれてしまうと、仮想画像と音声からなるコンテンツの再生は途中で停止してしまう。もう一度、マーカの撮影し位置に戻した場合は、停止した位置から再生を再開させることはできず、再度、コンテンツの開始位置からの再生が実行されてしまうことになる。
 このような状況は、例えば人の往来のはげしい混雑した場所にあるような例えば街頭広告などにマーカを設定してユーザに情報を提供する構成において、ユーザに対する情報伝達を困難にしてしまう事態を発生させる。すなわち、人の往来が激しい場所では、撮影画像に人が移り込み、マーカを継続的にカメラに撮影させることは困難となる。この結果、コンテンツ開始位置からの再生が繰り返し実行され、最後までコンテンツを再生することが困難になるという問題が発生する。
特開2012-58838号公報
 本開示は、例えば上記問題点に鑑みてなされたものであり、撮影画像内のマーカ等の特徴画像を認識してコンテンツ再生を行う構成において、マーカが撮影画像からはずれた場合や、マーカの再認識がなされた場合など、様々な状況に応じたコンテンツ再生制御を実行可能とした情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行するデータ処理部と、
 前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する特定部と、
 前記データ処理部は、前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置から前記コンテンツの再生を実行する、
 情報処理装置にある。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、コンテンツ再生処理において、コンテンツを構成する画像データを前記撮像部の撮影画像に重畳表示する処理を行なう。
 さらに、本開示の情報処理装置の一実施態様において、前記コンテンツは画像および音声を含むコンテンツであり、前記データ処理部は、前記特徴画像の検出が不能となった場合に画像のみ再生を停止し、音声を継続再生する処理を実行する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記特徴画像の検出が不能となった時からの経過時間を計測し、経過時間が予め設定した閾値時間を超えた場合に、音声の再生を停止する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記特徴画像の再検出を条件として、メモリから前記レジュームポイントを取得し、取得したコンテンツ位置から画像と音声を含むコンテンツ再生を実行する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記特徴画像の検出が不能となった場合に、コンテンツ出力レベルを時間経過とともに低下させるフェードアウト処理を実行する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記特徴画像の再検出時に、コンテンツ出力レベルを時間経過とともに上昇させるフェードイン処理を実行する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、
 前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
 (a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
 (b)コンテンツを始めから再生するリプレイ処理、
 いずれかの処理を選択するかの指示情報を入力し、入力情報に応じたコンテンツ再生を実行する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、
 前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
 (a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
 (b)コンテンツを始めから再生するリプレイ処理、
 いずれかの処理を選択するかの指示情報を入力可能としたユーザインタフェースを表示部に表示する。
 さらに、本開示の情報処理装置の一実施態様において、前記特徴画像は、撮影画像に含まれる識別マークである。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記再生コンテンツのシーン情報、または、前記情報処理装置のセンサ情報、または、前記情報処理装置の電話着信情報の入力に応じて、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録する処理を実行する。
 さらに、本開示の第2の側面は、
 画像撮影を行う撮像部と、
 サーバとの通信を実行する通信部と、
 前記撮像部の撮影画像から特徴画像の検出を実行し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
 前記データ処理部は、
 前記撮影画像からの特徴画像の検出が不能となった場合に、サーバからの受信コンテンツの再生を停止し、再生停止位置をレジュームポイント情報としてサーバに送信し、
 その後の特徴画像の再検出を条件として、前記サーバから前記レジュームポイント情報を入力して、該レジュームポイント位置からのコンテンツ再生を実行する情報処理装置にある。
 さらに、本開示の第3の側面は、
 画像撮影を行う撮像部と、
 サーバとの通信を実行する通信部と、
 前記撮像部の撮影画像を、前記通信部を介してサーバに送信し、サーバから前記撮影画像に基づく特徴画像検出情報を受信し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
 前記データ処理部は、
 前記サーバからの特徴画像検出情報が特徴画像の検出不能を示す場合、コンテンツ再生を停止し、再生を停止したコンテンツ位置を、レジュームポイント情報として前記通信部を介してサーバに送信し、
 その後の特徴画像再検出を条件として、前記サーバから前記レジュームポイント位置に対応する位置からのコンテンツを受信して再生する情報処理装置にある。
 さらに、本開示の第4の側面は、
 クライアントとの通信を実行する通信部と、
 前記クライアントに提供するコンテンツを格納した記憶部と、
 前記クライアントの撮影画像からの特徴画像検出処理と、コンテンツの提供処理を実行するデータ処理部を有し、
 前記データ処理部は、
 前記クライアントの撮影画像からの特徴画像検出処理を実行し特徴画像検出情報を前記クライアントに提供するサーバにある。
 さらに、本開示の第5の側面は、
 情報処理装置において実行する情報処理方法であり、
 データ処理部が、撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行し、
 前記データ処理部は、
 前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する処理と、
 前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置からの前記コンテンツの再生処理を実行する情報処理方法にある。
 さらに、本開示の第6の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 データ処理部に、撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行させ、
 前記プログラムは、前記データ処理部に、
 前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する処理と、
 前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置からの前記コンテンツの再生処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、マーカ等の特徴画像に応じたコンテンツ再生処理において、マーカロスト時、およびマーカ再検出時の改善された再生制御が実現される。
 具体的には、撮像部の撮影画像からマーカ等の特徴画像検出を実行し、マーカ検出に応じてコンテンツ再生を実行する。撮影画像からのマーカ検出が不能となったマーカロスト時に、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録し、その後のマーカ再検出を条件として、メモリからコンテンツ位置を取得し、取得したコンテンツ位置からコンテンツを再生する。コンテンツは画像および音声を含むコンテンツであり、マーカロスト時に画像のみ再生を停止し、音声再生を継続し、マーカロスト時からの経過時間が予め設定した閾値時間を超えた場合に、音声の再生を停止する。
 これらの構成により、マーカに応じたコンテンツ再生処理において、マーカロスト時、およびマーカ再検出時の改善された再生制御が実現される。
本開示の処理の概要について説明する図である。 本開示の処理の概要について説明する図である。 本開示の情報処理装置の状態遷移例について説明する図である。 本開示の情報処理装置の実行するコンテンツ再生制御シーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置の実行するコンテンツ再生制御シーケンスの一例について説明する図である。 本開示の情報処理装置の実行するコンテンツ再生制御シーケンスの一例について説明する図である。 本開示の情報処理装置の構成例について説明する図である。 本開示の情報処理装置の構成例について説明する図である。 本開示の情報処理装置の表示部に表示するユーザインタフェース(UI)の例について説明する図である。 本開示の情報処理装置の表示部に表示するユーザインタフェース(UI)の例について説明する図である。 本開示の情報処理装置の構成例について説明する図である。 本開示の情報処理装置の構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
  1.本開示の処理の概要について
  2.本開示のコンテンツ再生制御における状態遷移について
  3.情報処理装置の実行するコンテンツ再生制御処理シーケンスについて
  4.情報処理装置の構成例について
  5.その他の実施例について
  6.本開示の構成のまとめ
  [1.本開示の処理の概要について]
 まず、図1以下を参照して、本開示の処理の概要について説明する。
 図1は、本開示の処理の一利用例を示す図である。ユーザ21がカメラ機能を持つスマートフォン等の情報処理装置(携帯端末)30を用いて、ポスター10を含む画像を撮影する。なお、撮影画像は例えば動画像である。
 ポスター10には、例えばサイバーコード(二次元コード)等のマーカ(識別子)が印刷されている。
 なお、以下の実施例ではサイバーコード(二次元コード)等のマーカ(識別子)を識別対象とした例について説明するが、本開示の構成においては、様々な特徴画像、例えば、以下のような特徴画像を識別対象とするこが可能である。
 ・二次元バーコード(サイバーコード)
 ・特定の人の顔や特定の物体(本の表紙)などの特定物体認識の対象
 ・車、ペン、犬などの一般物体認識の対象
 情報処理装置30は、通信部を介してマーカ情報を含む撮影情報をサーバに送信する。サーバは、情報処理装置(クライアント)30から受信した撮影情報に基づいて、情報処理装置(クライアント)30がポスター10を含む画像を撮影していると認識し、サーバ内のコンテンツデータベースに格納済みのコンテンツ、例えば、ポスター10に印刷されている人物を撮影した動画像と音声からなるコンテンツを取得して、情報処理装置30に送信する。
 情報処理装置30は、サーバから受信したコンテンツの再生を行う。画像は、撮影中の画像に重ねて表示する。図1に示す再生仮想画像31である。さらに、音声をスピーカを介して出力する。図1に示す再生音声32である。
 図1に示すように、情報処理装置30は、情報処理装置30の撮像部(カメラ)で実際に撮影している撮影画像と、サーバから受信した仮想画像を併せて表示する。このような画像は、拡張現実(AR:Augmented Reality)画像と呼ばれる。
 さらに、仮想画像の再生に併せてサーバから受信した音声情報を出力する。
 情報処理装置30に表示する再生仮想画像31は、ユーザが居る場所には実際には存在しない人物の画像である。
 しかし、情報処理装置30の表示部の画面中には、あたかもユーザ21のいるその場所に立っているように表示される。
 情報処理装置30は、この仮想画像31および音声を含むコンテンツを記録することが可能となる。
 なお、上述の説明では、仮想画像と音声から構成されるコンテンツを、サーバから提供する処理例として説明したが、情報処理装置30の記憶部内にコンンテンツを格納して、撮影された識別子(マーカ)に基づいて、マーカ対応のコンテンツ検索を実行して取得したコンテンツを再生する構成としてもよい。
 このように情報処理装置30は、情報処理装置30の撮影画像中からマーカ11が認識されるとコンテンツ再生を開始する。
 しかし、前述したように、マーカ認識をトリガとしてコンテンツ再生を行う多くの装置では、マーカが認識されなくなるとコンテンツ再生を停止し、その後、再度、マーカが再認識された場合には、同じコンテンツを最初から再生するといった処理を行なうのが一般的であった。
 本開示の構成では、このような場合の処理制御において、従来の制御とは異なる処理を実行する。―その一例について図2を参照して説明する。
 図2には、ユーザが持つ情報処理装置30において画像を撮影中の状態として以下の2つの状態を示している。
 (A)マーカ認識状態
 (B)マーカ一時ロスト状態
 (A)マーカ認識状態は、ユーザが持つ情報処理装置30の撮像部(カメラ)によって撮影された撮影画像中にマーカ11が撮り込まれ、マーカ認識が可能な状態である。
 この状態では、マーカ認識に基づいてコンテンツ差異性が実行され、再生仮想絵画像31が表示部に表示され、再生音声32がスピーカすら出力される。
 一方、(B)マーカ一時ロスト状態は、ユーザが持つ情報処理装置30の撮像部(カメラ)によって撮影された撮影画像中からマーカ11が見失われ、一時的にマーカ認識ができない状態である。
 本開示の処理では、このマーカ一時ロスト状態においても、音声再生を継続する。
 このようなコンテンツ再生制御によって、マーカが瞬間的に撮影画像から消えた場合であっても、ユーザは例えば広告情報などのコンテンツを聞き逃すことはなくなる。
 また、本開示の構成では、再度マーカ認識が可能な状態、すなわち図2(A)の状態に戻った場合、コンテンツの最初からの再生を行うのではなく、連続的な再生処理を継続する。
 以下、この本開示のコンテンツ再生制御処理の詳細について説明する。
  [2.本開示のコンテンツ再生制御における状態遷移について]
 次に、本開示のコンテンツ再生制御における状態遷移について説明する。
 図3は、本開示の情報処理装置が設定される複数の状態と各状態の遷移処理について説明する図である。
 本開示の情報処理装置は、以下の4状態のいずれかの状態に設定される。
 (a)マーカ認識成功状態
 (b)マーカトラッキング状態
 (c)マーカ一時ロスト状態
 (d)マーカ完全ロスト状態
 本開示の情報処理装置は、これら(a)~(d)の4状態のいずれかの状態に設定される。
 (a)マーカ認識成功状態とは、撮影画像中からマーカが認識できない「完全ロスト状態」から初めてマーカを認識した状態である。
 (b)マーカトラッキング状態とは、認識したマーカを追従している状態である。
 (c)マーカ一時ロスト状態とは、「マーカトラッキング状態」において追従していたマーカを見失い(ロスト)、見失った(ロスト)時間からの経過時間が、予め規定した閾値時間Δt以下である状態である。
 (d)マーカ完全ロスト状態とは、「マーカトラッキング状態」において追従していたマーカを見失い(ロスト)、見失った(ロスト)時間からの経過時間が、予め規定した閾値時間Δtを超えた状態である。
 本開示の処理を実行するフログラムであるアプリケーションを起動すると、まず、初期状態は、「(d)マーカ完全ロスト状態」に設定される。その後、撮影画像からマーカが認識されると、図3に示す遷移ライン(S1)に従って、「(a)マーカ認識成功状態」に遷移する。
 「(a)マーカ認識成功状態」に遷移後、すぐに、遷移ライン(S2)に従って、「(b)マーカトラッキング状態」に遷移する。
 この「(b)マーカトラッキング状態」においてマーカが撮影画像中から検出されている間は、「(b)マーカトラッキング状態」に留まる。
 「(b)マーカトラッキング状態」において、撮影画像中からマーカを見失うと、遷移ライン(S3)に従って、「(c)マーカ一時ロスト状態」に遷移する。
 「(c)マーカ一時ロスト状態」では、この状態の開始時間からの経過時間が計測され、予め規定した閾値時間Δtを超えたか否かが判定される。
 「(c)マーカ一時ロスト状態」において、予め規定した閾値時間Δt以内に、マーカが撮影画像中から検出された場合は、遷移ライン(S4)に従って、「(b)マーカトラッキング状態」に遷移する。
 一方、「(c)マーカ一時ロスト状態」において、予め規定した閾値時間Δt以内に、マーカが撮影画像中から検出されず、予め規定した閾値時間Δtを超えると、遷移ライン(S5)に従って、「(d)マーカ完全ロスト状態」に遷移する。
 「(d)マーカ完全ロスト状態」において、撮影画像からマーカが認識されると、図3に示す遷移ライン(S1)に従って、「(a)マーカ認識成功状態」に遷移する。
 「(d)マーカ完全ロスト状態」において、撮影画像からマーカが認識されない場合は、「(d)マーカ完全ロスト状態」を継続する。
 本開示の情報処理装置は、このような状態遷移を行う。
 さらに、図3に示すように、
 (a)マーカ認識成功状態
 (b)マーカトラッキング状態
 これらの2つの状態では、画像と音声からなるコンテンツ再生を実行する。
 すなわち、図2(A)に示すマーカ認識状態に示すように、情報処理装置30の表示部に撮影画像に重畳して再生仮想画像31を重畳表示し、スピーカを介して再生音声32を出力する。
 また、
 (c)マーカ一時ロスト状態
 においては、音声のみの再生を実行する。
 すなわち、図2(B)に示すマーカ一時ロスト状態に示すように、情報処理装置30のスピーカを介して再生音声32を出力する。表示部には、再生仮想画像31は重畳表示しない。
 また、
 (d)マーカ完全ロスト状態
 においては、画像、音声の再生を停止する。
  [3.情報処理装置の実行するコンテンツ再生制御処理シーケンスについて]
 次に、本開示の情報処理装置が実行するコンテンツ再生制御処理らシーケンスについて説明する。
 図4は、本開示の情報処理装置が実行するコンテンツ再生制御処理らシーケンスを説明するフローチャートを示す図である。
 なお、図4のフローに示す処理は、例えば情報処理装置の記憶部に格納されたプログラム(アプリケーション)に従って、情報処理装置のデータ処理部、すなわちプログラム実行機能を有するCPU等を有するデータ処理部の制御の下に実行される。
 以下、各ステップの処理の詳細について、順次、説明する。
  (ステップS101)
 まず、情報処理装置は、アプリケーションを起動し、ステップS101において、情報処理装置の撮像部(カメラ)を介して画像を撮影する。例えば図1に示すようなマーカを持つポスターを撮影する。
 なお、情報処理装置のデータ処理部は、加増撮影開始後、撮影画像にマーカが含まれるか否かのマーカ検索処理を継続して実行する。
 前述したように、情報処理装置の初期状態は、「マーカ完全ロスト状態」であり、撮影画像からマーカが検出された場合は、「マーカ認識成功状態」に遷移する。
 なお、マーカは、例えば図1を参照して説明したようにサイバーコードなどのコード情報が適用可能である。なお、このようなコード情報を用いることなく、例えばポスターの画像情報そのものであってもよく、あるいはポスターに印刷された番号等、様々な情報をマーカとして利用することが可能である。
  (ステップS102)
 次に、情報処理装置はステップS102において、撮影画像中からマーカが検出されない「マーカ完全ロスト状態」にあるか否かを判定する。
 前述したように、初期状態では、「マーカ完全ロスト状態」にある。
 「マーカ完全ロスト状態」にあると判定した場合は、ステップS103に進む。
 「マーカ完全ロスト状態」でない場合、すなわち、既にマーカが検出された場合は、ステップS109に進み、マーカのトラッキング処理を行なう。すなわち、図3(b)に示すマーカトラッキング状態でのマーカ追従処理を実行する。
  (ステップS103)
 ステップS102において、「マーカ完全ロスト状態」にあると判定し、ステップS103に進むと、撮影画像からのマーカ検出処理を実行する。
  (ステップS104)
 ステップS104では、ステップS103のマーカ検出処理に成功したか否かを判定する。
 マーカ検出処理に成功すると、状態を「マーカ認識成功状態」に遷移させて、ステップS105に進む。
 一方、マーカ検出処理に成功していない場合は、ステップS101のかめら画像取得処理に戻り、ステップS101以下の処理を繰り返す。
  (ステップS105)
 ステップS104で、マーカ検出処理に成功すると、状態を「マーカ認識成功状態」に遷移させて、ステップS105に進む。
 ステップS105では、再生位置情報が情報処理装置のメモリ(記憶部)に記録されているか否かを判定する。
 この再生位置情報とは、前回のコンテンツ再生処理における再生停止位置情報である。
 なお、再生位置情報の格納先は、情報処理装置のメモリ(記憶部)としてもよいし、あるいは情報処理装置の通信部を介して通信を実行しているサーバ内の記憶部であってもよい。サーバを利用する構成では、サーバとの通信処理を実行しながら、図4に示すフローを実行する。
 後段で説明するが、情報処理装置は、マーカロスト等の所定条件に基づいてコンテンツの再生途中でコンテンツ再生を停止する場合、コンテンツの再生停止位置を情報処理装置、あるいはサーバのメモリ(記憶部)に記録する。
 なお、以下の説明では、サーバを利用しない構成例として説明する。
 ステップS105では、コンテンツ再生が途中で停止され、再生位置情報が情報処理装置のメモリ(記憶部)に記録されているか否かを判定する。
 再生位置情報が記録されている場合はステップS106に進む。
 再生位置情報が記録されていない場合はステップS107に進む。
  (ステップS106)
 ステップS105において、情報処理装置のメモリ(記憶部)に前回のコンテンツ再生処理における再生停止位置情報が記録されていると判定した場合、情報処理装置はステップS106において、再生停止位置情報をメモリから取得し、取得したコンテンツの再生停止位置を、コンテンツ再生開始位置として、その再生開始位置をコンテンツから検索する再生位置シーク処理を実行する。
  (ステップS107)
 情報処理装置は、ステップS107において、ステップS106でのシーク処理によって検出したコンテンツ再生開始位置からのコンテンツ再生を開始する。
 なお、ステップS105において、情報処理装置のメモリ(記憶部)に前回のコンテンツ再生処理における再生停止位置情報が記録されていないと判定した場合は、ステップS107では、コンテンツのスタート部分からコンテンツ再生を開始する。
 なお、再生コンテンツは、図1を参照して説明した再生仮想画像31と再生音声32からなるコンテンツである。このコンテンツは、情報処理装置の記憶部から取得する。あるいはサーバを利用した構成においては、通信中のサーバから取得する構成としてもよい。
 以下の説明では、情報処理装置の記憶部に格納したコンテンツを再生する処理例として説明する。
  (ステップS108)
 ステップS108では、所定の終了条件、例えばコンテンツの再生終了、あるいは、アプリケーションの終了等、所定の終了条件が発生したか否かを判定し、終了条件が発生した場合は処理を終了する。
 終了条件が発生していない場合は、ステップS101に戻り、ステップS101以下の処理を継続的に実行する。
  (ステップS109)
 ステップS109は、前述したように、ステップS102における処理、すなわち、撮影画像中からマーカが検出されない「マーカ完全ロスト状態」にあるか否かの判定処理において、「マーカ完全ロスト状態」でない場合、すなわち、既にマーカが検出された場合に移行する処理ステップである。
 ステップS109では、検出されたマーカのトラッキングを実行する。すなわち、図3(b)に示すマーカトラッキング状態でのマーカ追従処理を実行する。
  (ステップS110)
 ステップS110では、マーカトラッキングにおいてマーカトラッキング(追従)が成功しているか否かを判定する。
 成功している場合は、ステップS107に進み、コンテンツ再生を継続する。
 マーカトラッキングにおいてマーカトラッキング(追従)が失敗、すなわちマーカを見失った(ロスト)場合は、ステップS111に進む。この場合、ジョウタイハ、図3に示す「(c)マーカ一時ロスト状態」に移行する。
  (ステップS111)
 ステップS111では、すなわちマーカを見失った(ロスト)時間からの経過時間の計測を開始する。
  (ステップS112)
 ステップS112では、ステップS111で計測を開始したマーカのロスト発生時からの経過時間(ロスト時間)が予め規定した閾値時間Δtを超えたか否かを判定する。
 ロスト時間>閾値時間Δt
 上記判定式を満足する場合は、ステップS114に進む。ステップS114に進む時点で、状態は、図3に示す「(d)マーカ完全ロスト状態」に遷移する。
 マーカのロスト発生時からの経過時間(ロスト時間)が予め規定した閾値時間Δtを超えておらず、上記判定式を満足しない場合は、ステップS113に進む。
  (ステップS113)
 ステップS113は、マーカのロスト発生時からの経過時間(ロスト時間)が予め規定した閾値時間Δtを超えていない場合の処理である。すなわち、図3に示す「(c)マーカ一時ロスト状態」における処理である。ステップS113では、コンテンツ中の画像の再生を停止、すなわち、撮影画像に仮想画像を重畳表示する処理を停止する。ただし、音声出力のみは継続する。
 具体的には、図2(B)に示すマーカ一時ロスト状態に対応する音声のみのコンテンツ再生を継続する。
  (ステップS114)
 ステップS114は、マーカのロスト発生時からの経過時間(ロスト時間)が予め規定した閾値時間Δtを超えた場合の処理である。すなわち、図3に示す「(d)マーカ完全ロスト状態」に移行した場合の処理である。
 ステップS114では、画像と音声の両者の再生を停止状態にする。すなわち、撮影画像に仮想画像を重畳表示する処理も音声再生も停止する。
  (ステップS115)
 ステップS114でのコンテンツ再生停止後、ステップS115において、コンテンツの再生停止位置情報をメモリに記録する。
 なお、コンテンツ中、画像再生は先行して停止され、音声のみが再生継続し、その後、音声再生が停止する処理が実行されるが、メモリに格納する再生停止位置は、画像再生停止位置、あるいは音声再生停止位置のいずれかの設定とする。
 コンテンツ中の画像と音声は同期再生が実行され、ステップS113では、再生コンテンツ中の音声のみが出力され、画像の表示は実行されないが、コンテンツ再生位置は音声の再生に応じて更新される。
 ステップS115では、ステップS114での画像再生停止位置、あるいは音声再生停止位置に対応する再生位置情報がメモリに記録される。
 先に説明したステップS105におけるメモリからの再生位置情報の検索処理は、この再生停止位置情報をメモリから取り出す処理となる。
 ステップS105でメモリから再生位置情報の取得に成功し、ステップS107において、再生開始位置が決定され、ステップS107でのコンテンツ再生の再開時には、ステップS114で停止した画像あるいは音声の停止位置から画像と音声が併せて再生を開始する。
 コンテンツの再生停止と、その後のコンテンツ再生の再開の処理例について図5に示すシーケンス図を参照して説明する。
 再生コンテンツは、コンテンツ再生位置として、再生開始位置=T0、再生終了位置=T5の、再生位置=T0~T5からなるコンテンツである。コンテンツには画像、音声が含まれる。
 画像は、図1、図2に示した再生仮想画像31に対応し、撮影画像等のベース画像に重畳表示される画像である。
 音声は、画像に併せて同期再生される例えば図1、図2に示す再生音声32に対応する。
 図5には、
 (A)1回目のマーカ認識時の再生処理、
 (B)2回目のマーカ認識時の再生処理、
 これらを個別に示している。
 まず、(A)1回目のマーカ認識時の再生処理について説明する。アプリケーションを起動し、撮影画像中からマーカを検出すると、コンテンツのスタート位置(T0)から画像、音声ともに再生を開始する。
 コンテンツ再生位置(T1)の時点で、マーカのロストが発生、すなわち撮影画像からのマーカ検出に失敗したとする。
 この時点から、ロスト時間の計測が開始される。すなわち、図に示す(T1)からの経過時間が計測される。
 マーカのロスト発生時において、コンテンツ中の画像再生が停止される。
 すなわちコンテンツの再生時間(T1)が画像の再生停止位置となり、この画像再生停止位置がメモリに記録される。
 なお、本処理例では、画像再生停止位置をメモリに記録する再生位置情報とする。
 コンテンツ再生位置(T1)において画像再生は停止されるが、音声の再生は継続して実行される。すなわち、図3に示す「(c)マーカ一時ロスト状態」において音声の再生のみが継続して実行される。
 この音声再生処理は、図5に示すコンテンツ再生位置(T1~T2)の音声のみの再生処理に相当する。
 コンテンツ再生位置(T1)で、マーカのロストが発生し、ロスト時間の計測が開始され、経過時間が予め規定した閾値時間Δt経過後まで、マーカロスト次様態が継続すると、マーカ完全ロスト状態に遷移し、この時点で音声の再生も停止する。すなわち、図5に示すように、コンテンツ再生位置(T2)において音声再生が停止される。
 その後、撮影画像中からマーカ検出処理が継続的に実行され、マーカ検出に成功すると、図5(B)2回目のマーカ認識時の再生処理が実行される。
 (B)2回目のマーカ認識時のコンテンツ再生処理においては、1回目の再生処理の停止位置からの再生が行われる。
 (A)1回目のマーカ認識時のコンテンツ再生において、コンテンツの再生時間(T1)が画像の再生停止位置となり、この画像再生停止位置がメモリに記録されている。
 (B)2回目のマーカ認識時のコンテンツ再生処理においては、このメモリに格納された再生位置情報(T1)を取得し、コンテンツの再生位置(T1)から画像および音声の再生が再開される。
 この処理によって、ユーザは、コンテンツを始めからではなく、再生停止した位置から視聴することが可能となる。
 さらに、図5には、(B)2回目のマーカ認識時のコンテンツ再生処理において、コンテンツ再生位置(T3)で、マーカロストが発生した場合の処理を示している。
 ただし、図に示すコンテンツ再生位置(T3~T4)の例は、ロスト発生時からの経過時間が既定しきい値時間Δtを超える前にマーカが再検出された場合の処理例である。
 すなわち、ロスト発生時からの経過時間が既定しきい値時間Δtを超える前のコンテンツ再生位置(T4)の時点で、マーカが再検出された場合の処理である。
 この場合、状態遷移は以下の通りである。
 T3以前は、マーカトラッキング状態、
 T3~T4は、マーカ一時ロスト状態、
 T4でマーカ認識成功状態、
 T4以降は、再度、マーカトラッキング状態、
 このような状態遷移となる。
 ロスト発生時の(T3)で画像再生は停止する。ただし、音声再生は継続する。
 その後(T4)においてマーカが再検出されると、音声再生はそのまま継続し、画像についても、音声と同期した再生位置から再生を開始する。
 このように、本開示の処理では、マーカのロストが発生した場合、再生停止位置を記録しておき、再生再開時に再生停止位置からの再生を開始するので、始めからコンテンツ再生を繰り返すといった無駄な処理が行われることがない。
 また、マーカロストが発生しても、音声の再生が所定時間継続するので、例えばその期間にユーザがマーカ位置にカメラを向けるといった処理を行なうことで、画像再生も再開され、継続したコンテンツ再生を実行させることも可能となる。
 なお、図5に示すコンテンツの再生制御処理では、コンテンツの再生停止および再開時にコンテンツの再生のオンオフ切り替えを実行しているが、コンテンツの再生停止時には、音声レベルを徐々に低下させるフェードアウト処理を実行し、コンテンツの再生再開時には、音声レベルを徐々に上昇させるフェードイン処理を実行する構成としてもよい。
 この再生制御処理例を図6に示す。
 図6には、図5と同様、
 (A)1回目のマーカ認識時の再生処理、
 (B)2回目のマーカ認識時の再生処理、
 これらを個別に示している。
 再生コンテンツ、および、マーカロストや再検出のタイミングは図5と同様である。
 すなわち、コンテンツは、再生位置=T0~T5からなるコンテンツである。コンテンツには画像、音声が含まれる。
 (A)1回目のマーカ認識時の再生処理に示す処理は、
 再生位置(T1)でマーカロストが発生し、そのまま、閾値時間(Δt)が経過した場合の処理である。
 この処理例では、マーカのロスト発生時(T1)において、コンテンツ中の画像再生が停止され、この画像再生停止位置がメモリに記録される。
 コンテンツ再生位置(T1)において画像再生は停止されるが、音声の再生は継続して実行される。ただし、本処理例では、コンテンツ再生位置(T1)からの音声再生処理において、音声レベルを徐々に低下させるフェードアウト処理を実行する。
 このフェードアウト音声再生処理は、図6(A)に示すコンテンツ再生位置(T1~T2)の音声のみの再生処理時に実行する。
 その後、撮影画像中からマーカ検出処理が継続的に実行され、マーカ検出に成功すると、図6(B)2回目のマーカ認識時の再生処理が実行される。
 (B)2回目のマーカ認識時のコンテンツ再生処理においては、1回目の再生処理の停止位置からの再生が行われる。
 (A)1回目のマーカ認識時のコンテンツ再生において、コンテンツの再生時間(T1)が画像の再生停止位置となり、この画像再生停止位置がメモリに記録されている。
 (B)2回目のマーカ認識時のコンテンツ再生処理においては、このメモリに格納された再生位置情報(T1)を取得し、コンテンツの再生位置(T1)から画像および音声の再生が再開される。
 本処理例では、メモリに格納された再生位置情報(T1)より前の位置を再生開始位置として、この再生開始位置から画像と音声のレベルを徐々に上げていくフェードイン再生処理を実行する。
 さらに、図6(B)には、図5(B)と同様、コンテンツ再生位置(T3)で、マーカロストが発生し、既定しきい値時間Δtを超える前にマーカが再検出された場合の処理例を示している。
 コンテンツ再生位置(T3)で、マーカロストが発生し他場合、画像再生は停止するが、音声再生は停止せず、継続する。ただし、本処理例では、再生音声レベルを徐々に低下させるフェードアウト処理を実行している。
 さらに、ロスト発生時からの経過時間が既定しきい値時間Δtを超える前のコンテンツ再生位置(T4)の時点で、マーカが再検出された場合、画像と音声の再生レベルを徐々に増加させて再生を再開、すなわちフェードイン処理を実行してコンテンツ再生を再開する。
  [4.情報処理装置の構成例について]
 次に、図7を参照して上述の処理を実行する情報処理装置の構成例について説明する。
 図7に示すように、情報処理装置100は、データ処理部110、記憶部120、撮像部(カメラ)130、表示部140、スピーカ150を有する。
 データ処理部110は、マーカ認識追従部111、再生制御部112、画像表示処理部113、音声再生処理部114を有する。
 記憶部120には、コンテンツ121と、再生位置情報122が記録される。
 図7に示す各構成部の実行する処理について、先に説明した図4に示すフローチャートの各ステップの処理に対応付けて説明する。
 撮像部(カメラ)130は、図4に示すフローのステップS101の処理、すなわちカメラ画像の撮影処理を実行する。
 マーカ認識追従部111は、図4のフローのステップS103やステップS109の処理を実行する。すなわち、撮像部(カメラ)130の撮影画像からマーカを検出し、さらに、検出マーカのトラッキング(追従)処理を実行する。
 マーカは前述したように、例えばサイバーコードなどのコード情報、あるいは特定の画像情報など、さまざまな情報が利用可能である。
 再生制御部112は、図4に示すフローのステップS104~S107、ステップS110~S115の各処理を実行する。
 すなわち、マーカ認識追従部111からのマーカ認識結果情報を入力して、コンテンツの再生制御を実行する。
 このコンテンツ再生制御においては、先に図3を参照して説明した状態遷移を実行し、さらに、図5や図6を参照して説明した再生制御、すなわち画像の再生停止後、音声を継続再生する処理などを行う。
 さらに、再生停止する場合は、再生停止位置に対応する再生位置情報122を記憶部120に記録する処理を実行し、再生再開時には、記憶部120に格納された再生位置情報122を取得してその位置からの再生処理を再開する処理などを実行する。
 なお、再生コンテンツは、記憶部120のコンテンツ121であり、画像と音声情報を含むコンテンツである。
 画像表示処理部113は、コンテンツ121中の画像データを撮影画像に重畳させて、表示部140に出力する。
 音声再生処理部114は、コンテンツ121中の音声データをスピーカ150を介して出力する。
 なお、先に図6を参照して説明したフェードイン、フェードアウト処理を実行する場合は、再生制御部112の指示に応じて画像表示処理部113と、音声再生処理部114が、それぞれ出力データのレベル制御を実行する。
 なお、具体的なハードウェア構成としては、データ処理部110は、CPU等を有する制御手段によって構成可能であり、記憶部120はRAM、ROM、ハードディスクなどの各種の記憶手段によって構成可能である。
 CPU等によって構成されるデータ処理部110が記憶部120内に格納されたプログラム(アプリケーション)を実行することで、先に説明した図鵜に示すフローに従った処理が実行される。
 図8は、もう1つの情報処理装置200の構成例を示している。
 図7の情報処理装置100との差異は、入力部160を有する点である。
 入力部160は、例えばコンテンツ再生停止後のコンテンツ再生再開処理時の処理態様を決定するためのユーザ入力を入力して、再生制御部112に通知する。
 再生制御部112は、このユーザ入力情報に応じた処理を実行する。
 例えば、
 (1)上述した実施例において説明した再生停止位置からの途中再生を実行させるレジューム(Resume)処理、あるいは、
 (2)再生停止位置からではなく、始めからのコンテンツ再生を実行させるリプレイ(Replay)処理、
 これら(1),(2)のいずれかをユーザの入力に応じて選択再生可能とする。
 この入力部160は。具体的には表示部140に表示するユーザインタフェース(IF)として実現可能である。
 ユーザインタフェース表示例を図9に示す。
 図9には、UI情報として、
 (A)最初から再生指示アイコン251[Replay]を表示した例、
 (B)最初から再生指示アイコン251[Replay]と、停止位置から再生指示アイコン252[Resume]を表示した例、
 これらの2つのUI表示例を示している。
 これらのUIは、例えば、マーカロスト後、再度、マーカが検出された場合に表示部140に表示する。
 例えば、図9(A)に示す最初から再生指示アイコン251[Replay]のみが表示された構成では、このアイコンをタッチすることで、コンテンツの再生は最初からの再生として実行される。すなわち、前回の再生停止位置からの再生は実行されず、最初からのコンテンツ再生を実行する。
 図9(A)に示す最初から再生指示アイコン251[Replay]に対するタッチ入力を所定時間検出しない場合は、前述の実施例で説明した処理、すなわち前回の再生停止位置からの再生を実行する。
 この再生制御は、再生制御部112において実行する。
 例えば、図9(B)に示す最初から再生指示アイコン251[Replay]と、停止位置から再生指示アイコン252[Resume]とが表示された構成では、いずれかのアイコンをタッチすることで、そのタッチアイコンに応じた処理を実行する。
 すなわち、再生指示アイコン251[Replay]のタッチ入力を検出すると、コンテンツの再生を最初からの再生として実行する。
 一方、停止位置から再生指示アイコン252[Resume]のタッチ入力を検出すると、前回の再生停止位置からの再生を実行する。
 この再生制御は、再生制御部112において実行する。
 さらに、図10に示すように、前回の再生停止位置における再生画像を表示部に表示する構成としてもよい。図10に示す停止位置の再生画像253である。
 ユーザは、この画像を確認して、再生停止位置からの再生とするか、始めからの再生とするかを選択することが可能となる。
 図8に示す情報処理装置200は、このようなユーザ入力に応じた制御を可能とした情報処理装置である。
 さらに、図11に示す情報処理装置300は、コンテンツ401と、再生位置情報402をサーバ400に格納した場合の構成例である。
 情報処理装置300は通信部115を介してサーバ400と通信を実行し、コンテンツ401の取得、再生位置情報402の送信、および受信を実行して、再生制御を行う。
 この場合の再生制御は、先に説明した図4のフローに従った処理と同様の処理となる。
 ただし、コンテンツの取得や、再生位置情報の格納や取り出し処理については、通信部115を介したサーバ400との通信によって実行することになる。
 クライアントとしての情報処理装置300のデータ処理部110は、撮像部130の撮影画像からマーカ検出を実行し、マーカ検出が不能となったマーカロスト時に、サーバ400からの受信コンテンツの再生を停止し、再生停止位置情報をサーバに送信し、その後のマーカ再検出を条件として、サーバから再生停止位置情報を入力して、該再生停止位置に対応する位置からのコンテンツ再生を実行する。
 さらに、図12に示す情報処理装置500は図11に示す構成と同様、コンテンツ401と、再生位置情報402をサーバ400に格納し、さらに、マーカ認識追従部403もサーバ400に設置した構成である。
 情報処理装置500は通信部115を介してサーバ400と通信を実行し、撮像部(カメラ)130撮影画像501をサーバ400のマーカ認識追従部403に提供する。
 サーバ400のマーカ認識追従部403は、撮影画像からマーカを識別して、マーカの識別結果であるマーカ識別情報502を情報処理装置500に提供する。
 情報処理装置500の再生制御部112は、サーバ400からコンテンツを受信し、さらにマーカ識別情報501を受信し、受信したマーカ識別情報501を利用して、先に説明した図4のフローに従った処理と同様の処理を実行する。
 本構成においては、クライアントとしての情報処理装置500のデータ処理部110は、撮像部130の撮影画像501を、通信部115を介してサーバ400に送信し、サーバ400から撮影画像に基づくマーカ識別情報502を受信し、サーバ400からの提供コンテンツの再生を実行する。
 データ処理部110は、サーバからのマーカ検出情報がマーカ検出不能を示すマーカロストを示す場合、コンテンツ再生を停止し、再生を停止したコンテンツ位置を、通信部115を介してサーバ400に送信し、その後のマーカ再検出を条件として、サーバ400から直前にサーバ400に送信したコンテンツ位置情報を取得して、その位置に対応する位置からのコンテンツを再生する。
 この処理構成とすることで、情報処理装置500の処理負荷が大きく軽減されることになる。
  [5.その他の実施例について]
 上述した実施例では、マーカのロスト、すなわち、情報処理装置の撮影画像中からのマーカ検出の有無に応じてコンテンツの再生制御を実行する実施例について説明した。
 具体的には、マーカが検出されているか否かの情報、およびマーカロストからの経過時間に応じてコンテンツの再生制御を実行する処理例である。
 情報処理装置におけるコンテンツ再生制御のトリガとする情報は、このマーカ以外の情報とすることも可能である。
 具体的には、例えば以下の情報をコンテンツ再生制御のトリガとして利用可能である。
 (a)再生コンテンツのシーン情報
 (b)情報処理装置のセンサ情報
 (c)情報処理装置の電話着信情報
 例えば、情報処理装置の再生制御部において、これらの情報を入力してコンテンツ再生制御を行う構成としてもよい。
 上記の各情報をトリガとしたコンテンツ再生制御処理の具体例について説明する。
 (a)再生コンテンツのシーン情報を利用する場合、情報処理装置の再生制御部は、再生コンテンツに付属して設定されたメタデータ(属性情報)を入力する。
 例えばメタデータが、コンテンツの区切りを示すメタデータである場合にコンテンツを停止し、その停止位置をメモリに記録するといった処理を行なう。
 再生再開時点においては、再生停止したコンテンツの区切り位置からコンテンツを再開させる制御を行う。
 また、(b)情報処理装置のセンサ情報を利用する場合、情報処理装置の再生制御部は、情報処理装置のセンサ情報、例えば加速度センサ情報を入力し、突然の情報処理装置の動きを検出した場合などに、コンテンツの再生を停止し、再生停止位置情報をメモリに記録する。この処理は、例えばユーザが情報処理装置をポケットに格納するといった処理時に行われることになる。
 再生再開時点においては、再生停止したコンテンツの位置からコンテンツを再開させる制御を行う。
 また、(c)情報処理装置の電話着信情報を利用する場合、情報処理装置の再生制御部は、情報処理装置の電話着信情報を入力し、電話着信があった場合に、コンテンツの再生を停止し、再生停止位置情報をメモリに記録する。この処理は、例えば電話着信後、通話を行い、通話終了後に再生再開する場合に、再生停止したコンテンツの位置からコンテンツを再開させることを可能とする制御である。
  [6.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1)撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行するデータ処理部と、
 前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する特定部と、
 前記データ処理部は、前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置から前記コンテンツの再生を実行する、
 情報処理装置。
 (2)前記データ処理部は、コンテンツ再生処理において、コンテンツを構成する画像データを前記撮像部の撮影画像に重畳表示する処理を行なう前記(1)に記載の情報処理装置。
 (3)前記コンテンツは画像および音声を含むコンテンツであり、前記データ処理部は、前記特徴画像の検出が不能となった場合に画像のみ再生を停止し、音声を継続再生する処理を実行する前記(1)または(2)に記載の情報処理装置。
 (4)前記データ処理部は、前記特徴画像の検出が不能となった時からの経過時間を計測し、経過時間が予め設定した閾値時間を超えた場合に、音声の再生を停止する前記(1)~(3)いずれかに記載の情報処理装置。
 (5)前記データ処理部は、前記特徴画像の再検出を条件として、メモリから前記レジュームポイントを取得し、取得したコンテンツ位置から画像と音声を含むコンテンツ再生を実行する前記(1)~(4)いずれかに記載の情報処理装置。
 (6)前記データ処理部は、前記特徴画像の検出が不能となった場合に、コンテンツ出力レベルを時間経過とともに低下させるフェードアウト処理を実行する前記(1)~(5)いずれかに記載の情報処理装置。
 (7)前記データ処理部は、前記特徴画像の再検出時に、コンテンツ出力レベルを時間経過とともに上昇させるフェードイン処理を実行する前記(1)~(6)いずれかに記載の情報処理装置。
 (8)前記データ処理部は、
 前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
 (a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
 (b)コンテンツを始めから再生するリプレイ処理、
 いずれかの処理を選択するかの指示情報を入力し、入力情報に応じたコンテンツ再生を実行する前記(1)~(7)いずれかに記載の情報処理装置。
 (9)前記データ処理部は、
 前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
 (a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
 (b)コンテンツを始めから再生するリプレイ処理、
 いずれかの処理を選択するかの指示情報を入力可能としたユーザインタフェースを表示部に表示する前記(1)~(8)いずれかに記載の情報処理装置。
 (10)前記特徴画像は、撮影画像に含まれる識別マークである前記(1)~(9)いずれかに記載の情報処理装置。
 (11)前記データ処理部は、前記再生コンテンツのシーン情報、または、前記情報処理装置のセンサ情報、または、前記情報処理装置の電話着信情報の入力に応じて、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録する処理を実行する前記(1)~(10)いずれかに記載の情報処理装置。
 (12)画像撮影を行う撮像部と、
 サーバとの通信を実行する通信部と、
 前記撮像部の撮影画像から特徴画像の検出を実行し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
 前記データ処理部は、
 前記撮影画像からの特徴画像の検出が不能となった場合に、サーバからの受信コンテンツの再生を停止し、再生停止位置をレジュームポイント情報としてサーバに送信し、
 その後の特徴画像の再検出を条件として、前記サーバから前記レジュームポイント情報を入力して、該レジュームポイント位置からのコンテンツ再生を実行する情報処理装置。
 (13) 画像撮影を行う撮像部と、
 サーバとの通信を実行する通信部と、
 前記撮像部の撮影画像を、前記通信部を介してサーバに送信し、サーバから前記撮影画像に基づく特徴画像検出情報を受信し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
 前記データ処理部は、
 前記サーバからの特徴画像検出情報が特徴画像の検出不能を示す場合、コンテンツ再生を停止し、再生を停止したコンテンツ位置を、レジュームポイント情報として前記通信部を介してサーバに送信し、
 その後の特徴画像再検出を条件として、前記サーバから前記レジュームポイント位置に対応する位置からのコンテンツを受信して再生する情報処理装置。
 (14) クライアントとの通信を実行する通信部と、
 前記クライアントに提供するコンテンツを格納した記憶部と、
 前記クライアントの撮影画像からの特徴画像検出処理と、コンテンツの提供処理を実行するデータ処理部を有し、
 前記データ処理部は、
 前記クライアントの撮影画像からの特徴画像検出処理を実行し特徴画像検出情報を前記クライアントに提供するサーバ。
 さらに、上記した装置およびシステムにおいて実行する処理の方法や、処理を実行させるプログラムも本開示の構成に含まれる。
 なお、たとえば、上記(1)に記載の構成は、ユーザ側の端末の構成であってもよいが、ユーザ端末と通信するサーバの構成であってもよい。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、マーカ等の特徴画像に応じたコンテンツ再生処理において、マーカロスト時、およびマーカ再検出時の改善された再生制御が実現される。
 具体的には、撮像部の撮影画像からマーカ等の特徴画像検出を実行し、マーカ検出に応じてコンテンツ再生を実行する。撮影画像からのマーカ検出が不能となったマーカロスト時に、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録し、その後のマーカ再検出を条件として、メモリからコンテンツ位置を取得し、取得したコンテンツ位置からコンテンツを再生する。コンテンツは画像および音声を含むコンテンツであり、マーカロスト時に画像のみ再生を停止し、音声再生を継続し、マーカロスト時からの経過時間が予め設定した閾値時間を超えた場合に、音声の再生を停止する。
 これらの構成により、マーカに応じたコンテンツ再生処理において、マーカロスト時、およびマーカ再検出時の改善された再生制御が実現される。
  10 ポスター
  11 マーカ
  21 ユーザ
  30 情報処理装置(携帯端末)
  31 再生仮想画像
  32 再生音声
 100 情報処理装置
 110 データ処理部
 111 マーカ認識追従部
 112 再生制御部
 113 画像表示処理部
 114 音声再生処理部
 120 記憶部
 121 コンテンツ
 122 再生位置情報
 130 撮像部(カメラ)
 140 表示部
 150 スピーカ
 160 入力部
 200 情報処理装置
 300 情報処理装置
 400 サーバ
 401 コンテンツ
 402 再生位置情報
 403 マーカ認識追従部
 500 情報処理装置

Claims (16)

  1.  撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行するデータ処理部と、
     前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する特定部と、
     前記データ処理部は、前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置から前記コンテンツの再生を実行する、
     情報処理装置。
  2.  前記データ処理部は、
     コンテンツ再生処理において、コンテンツを構成する画像データを前記撮像部の撮影画像に重畳表示する処理を行なう請求項1に記載の情報処理装置。
  3.  前記コンテンツは画像および音声を含むコンテンツであり、
     前記データ処理部は、
     前記特徴画像の検出が不能となった場合に画像のみ再生を停止し、音声を継続再生する処理を実行する請求項1に記載の情報処理装置。
  4.  前記データ処理部は、
     前記特徴画像の検出が不能となった時からの経過時間を計測し、経過時間が予め設定した閾値時間を超えた場合に、音声の再生を停止する請求項3に記載の情報処理装置。
  5.  前記データ処理部は、
     前記特徴画像の再検出を条件として、メモリから前記レジュームポイントを取得し、取得したコンテンツ位置から画像と音声を含むコンテンツ再生を実行する請求項3に記載の情報処理装置。
  6.  前記データ処理部は、
     前記特徴画像の検出が不能となった場合に、コンテンツ出力レベルを時間経過とともに低下させるフェードアウト処理を実行する請求項1に記載の情報処理装置。
  7.  前記データ処理部は、
     前記特徴画像の再検出時に、コンテンツ出力レベルを時間経過とともに上昇させるフェードイン処理を実行する請求項1に記載の情報処理装置。
  8.  前記データ処理部は、
     前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
     (a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
     (b)コンテンツを始めから再生するリプレイ処理、
     いずれかの処理を選択するかの指示情報を入力し、入力情報に応じたコンテンツ再生を実行する請求項1に記載の情報処理装置。
  9.  前記データ処理部は、
     前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
     (a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
     (b)コンテンツを始めから再生するリプレイ処理、
     いずれかの処理を選択するかの指示情報を入力可能としたユーザインタフェースを表示部に表示する請求項1に記載の情報処理装置。
  10.  前記特徴画像は、撮影画像に含まれる識別マークである請求項1に記載の情報処理装置。
  11.  前記データ処理部は、
     前記再生コンテンツのシーン情報、または、前記情報処理装置のセンサ情報、または、前記情報処理装置の電話着信情報の入力に応じて、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録する処理を実行する請求項1に記載の情報処理装置。
  12.  画像撮影を行う撮像部と、
     サーバとの通信を実行する通信部と、
     前記撮像部の撮影画像から特徴画像の検出を実行し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
     前記データ処理部は、
     前記撮影画像からの特徴画像の検出が不能となった場合に、サーバからの受信コンテンツの再生を停止し、再生停止位置をレジュームポイント情報としてサーバに送信し、
     その後の特徴画像の再検出を条件として、前記サーバから前記レジュームポイント情報を入力して、該レジュームポイント位置からのコンテンツ再生を実行する情報処理装置。
  13.  画像撮影を行う撮像部と、
     サーバとの通信を実行する通信部と、
     前記撮像部の撮影画像を、前記通信部を介してサーバに送信し、サーバから前記撮影画像に基づく特徴画像検出情報を受信し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
     前記データ処理部は、
     前記サーバからの特徴画像検出情報が特徴画像の検出不能を示す場合、コンテンツ再生を停止し、再生を停止したコンテンツ位置を、レジュームポイント情報として前記通信部を介してサーバに送信し、
     その後の特徴画像再検出を条件として、前記サーバから前記レジュームポイント位置に対応する位置からのコンテンツを受信して再生する情報処理装置。
  14.  クライアントとの通信を実行する通信部と、
     前記クライアントに提供するコンテンツを格納した記憶部と、
     前記クライアントの撮影画像からの特徴画像検出処理と、コンテンツの提供処理を実行するデータ処理部を有し、
     前記データ処理部は、
     前記クライアントの撮影画像からの特徴画像検出処理を実行し特徴画像検出情報を前記クライアントに提供するサーバ。
  15.  情報処理装置において実行する情報処理方法であり、
     データ処理部が、撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行し、
     前記データ処理部は、
     前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する処理と、
     前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置からの前記コンテンツの再生処理を実行する情報処理方法。
  16.  情報処理装置において情報処理を実行させるプログラムであり、
     データ処理部に、撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行させ、
     前記プログラムは、前記データ処理部に、
     前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する処理と、
     前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置からの前記コンテンツの再生処理を実行させるプログラム。
PCT/JP2013/061997 2012-06-12 2013-04-24 情報処理装置、および情報処理方法、並びにプログラム WO2013187131A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014521001A JP6128123B2 (ja) 2012-06-12 2013-04-24 情報処理装置、および情報処理方法、並びにプログラム
EP13804985.3A EP2860968B1 (en) 2012-06-12 2013-04-24 Information processing device, information processing method, and program
BR112014030582A BR112014030582A2 (pt) 2012-06-12 2013-04-24 dispositivo de processamento de informação, servidor, método de processamento de informação, e, programa.
CN201380029785.9A CN104380717B (zh) 2012-06-12 2013-04-24 信息处理装置、信息处理方法、以及计算机可读存储介质
US14/405,934 US9837121B2 (en) 2012-06-12 2013-04-24 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-133321 2012-06-12
JP2012133321 2012-06-12

Publications (1)

Publication Number Publication Date
WO2013187131A1 true WO2013187131A1 (ja) 2013-12-19

Family

ID=49757966

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/061997 WO2013187131A1 (ja) 2012-06-12 2013-04-24 情報処理装置、および情報処理方法、並びにプログラム

Country Status (6)

Country Link
US (1) US9837121B2 (ja)
EP (1) EP2860968B1 (ja)
JP (1) JP6128123B2 (ja)
CN (1) CN104380717B (ja)
BR (1) BR112014030582A2 (ja)
WO (1) WO2013187131A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099638A (ja) * 2014-11-18 2016-05-30 セイコーエプソン株式会社 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム
JP2016139375A (ja) * 2015-01-29 2016-08-04 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP2016139368A (ja) * 2015-01-29 2016-08-04 コニカミノルタ株式会社 Ar装置、ar実現方法、およびコンピュータプログラム
JP2016218594A (ja) * 2015-05-18 2016-12-22 セイコーエプソン株式会社 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム
JP2020065135A (ja) * 2018-10-16 2020-04-23 株式会社Nttぷらら 情報処理装置、情報処理システム、情報処理方法及びコンピュータプログラム
US10664975B2 (en) 2014-11-18 2020-05-26 Seiko Epson Corporation Image processing apparatus, control method for image processing apparatus, and computer program for generating a virtual image corresponding to a moving target

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1665769B1 (en) * 2003-09-12 2014-03-19 OpenTV, Inc. Method and system for controlling recording and playback of interactive applications
JP6303550B2 (ja) * 2014-02-03 2018-04-04 ブラザー工業株式会社 表示プログラムおよび表示装置
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10559133B2 (en) * 2018-02-07 2020-02-11 Dell Products L.P. Visual space management across information handling system and augmented reality
US11354815B2 (en) * 2018-05-23 2022-06-07 Samsung Electronics Co., Ltd. Marker-based augmented reality system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010055624A1 (ja) * 2008-11-13 2010-05-20 三菱電機株式会社 再生装置及び再生方法
JP2011187001A (ja) * 2010-03-11 2011-09-22 Nec Corp 案内情報提供装置、案内情報提供方法、案内情報提供プログラム
JP2012058838A (ja) 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2044592A1 (en) * 2006-07-12 2009-04-08 Koninklijke Philips Electronics N.V. A device and a method for playing audio-video content
JP2008158788A (ja) * 2006-12-22 2008-07-10 Fujifilm Corp 情報処理装置および情報処理方法
JP2009105591A (ja) * 2007-10-23 2009-05-14 Iidesu Solution:Kk 動画配信システム
US8194037B2 (en) * 2007-12-14 2012-06-05 Apple Inc. Centering a 3D remote controller in a media system
JP5528008B2 (ja) * 2008-07-17 2014-06-25 キヤノン株式会社 再生装置及び再生方法
JP2012029019A (ja) * 2010-07-23 2012-02-09 Hitachi Consumer Electronics Co Ltd コンテンツ再生装置
KR101404251B1 (ko) * 2010-09-10 2014-06-09 한국전자통신연구원 컨텐츠의 부가서비스 정보를 보조 단말기에 표시하는 시스템 및 방법
JP5539165B2 (ja) * 2010-11-16 2014-07-02 日立コンシューマエレクトロニクス株式会社 コンテンツ配信装置、コンテンツ再生装置及びコンテンツ再生システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010055624A1 (ja) * 2008-11-13 2010-05-20 三菱電機株式会社 再生装置及び再生方法
JP2011187001A (ja) * 2010-03-11 2011-09-22 Nec Corp 案内情報提供装置、案内情報提供方法、案内情報提供プログラム
JP2012058838A (ja) 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2860968A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099638A (ja) * 2014-11-18 2016-05-30 セイコーエプソン株式会社 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム
US10664975B2 (en) 2014-11-18 2020-05-26 Seiko Epson Corporation Image processing apparatus, control method for image processing apparatus, and computer program for generating a virtual image corresponding to a moving target
US11176681B2 (en) 2014-11-18 2021-11-16 Seiko Epson Corporation Image processing apparatus, control method for image processing apparatus, and computer program
JP2016139375A (ja) * 2015-01-29 2016-08-04 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP2016139368A (ja) * 2015-01-29 2016-08-04 コニカミノルタ株式会社 Ar装置、ar実現方法、およびコンピュータプログラム
JP2016218594A (ja) * 2015-05-18 2016-12-22 セイコーエプソン株式会社 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム
JP2020065135A (ja) * 2018-10-16 2020-04-23 株式会社Nttぷらら 情報処理装置、情報処理システム、情報処理方法及びコンピュータプログラム
JP7170495B2 (ja) 2018-10-16 2022-11-14 株式会社Nttドコモ 情報処理装置、情報処理システム、情報処理方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2013187131A1 (ja) 2016-02-04
US20150117831A1 (en) 2015-04-30
JP6128123B2 (ja) 2017-05-17
BR112014030582A2 (pt) 2017-08-08
CN104380717A (zh) 2015-02-25
EP2860968A4 (en) 2015-12-02
CN104380717B (zh) 2018-08-03
US9837121B2 (en) 2017-12-05
EP2860968A1 (en) 2015-04-15
EP2860968B1 (en) 2020-06-24

Similar Documents

Publication Publication Date Title
JP6128123B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN108900902B (zh) 确定视频背景音乐的方法、装置、终端设备及存储介质
CN105828201B (zh) 视频处理方法及装置
US10652421B2 (en) Apparatus and method for capturing image with audio data
JP5506324B2 (ja) 類似画像検索システム、および、類似画像検索方法
WO2018095252A1 (zh) 视频录制方法及装置
JP7441926B2 (ja) 映像コーディングを行うコンピュータプログラム
TWI588590B (zh) 影像產生系統及影像產生方法
US9325776B2 (en) Mixed media communication
JP2024513640A (ja) 仮想対象のアクション処理方法およびその装置、コンピュータプログラム
TW201631960A (zh) 擴增實境式串流影音顯示系統、其方法、電腦可讀取記錄媒體及電腦程式產品
JP2014209707A (ja) 映像再生装置および映像再生方法
JP6214762B2 (ja) 画像検索システム、検索画面表示方法
JP2016036106A (ja) 情報処理装置、情報処理方法及びプログラム
JP2014204411A (ja) 会議記録システム、会議記録装置、会議記録再生方法およびコンピュータプログラム
WO2020028107A1 (en) Tagging an image with audio-related metadata
CN115988154A (zh) 录像方法、装置及电子设备
KR102066857B1 (ko) 객체 영상 트랙킹 스트리밍 시스템 및 이를 이용한 스트리밍 방법
JP5325012B2 (ja) 歌唱者画像撮影機能を有するカラオケシステム
CN106454451B (zh) 多媒体播放控制方法及装置
JP2020129763A (ja) 動画再生装置、動画再生方法及びプログラム
KR20150041548A (ko) 증강 현실을 제공하는 방법 및 컴퓨팅 디바이스
WO2017026387A1 (ja) 映像処理装置、映像処理方法および記録媒体
KR101562901B1 (ko) 대화 지원 서비스 제공 시스템 및 방법
TW201739262A (zh) 影音自動處理系統及方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13804985

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014521001

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013804985

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014149159

Country of ref document: RU

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14405934

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014030582

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014030582

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20141205