WO2013187131A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents
情報処理装置、および情報処理方法、並びにプログラム Download PDFInfo
- Publication number
- WO2013187131A1 WO2013187131A1 PCT/JP2013/061997 JP2013061997W WO2013187131A1 WO 2013187131 A1 WO2013187131 A1 WO 2013187131A1 JP 2013061997 W JP2013061997 W JP 2013061997W WO 2013187131 A1 WO2013187131 A1 WO 2013187131A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- content
- reproduction
- marker
- image
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/002—Programmed access in sequence to a plurality of record carriers or indexed parts, e.g. tracks, thereof, e.g. for editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/22—Means responsive to presence or absence of recorded information signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B31/00—Arrangements for the associated working of recording or reproducing apparatus with related apparatus
- G11B31/006—Arrangements for the associated working of recording or reproducing apparatus with related apparatus with video camera or receiver
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Definitions
- the present disclosure relates to an information processing apparatus, an information processing method, and a program.
- the present invention relates to an information processing apparatus, an information processing method, and a program for executing augmented reality (AR) display.
- AR augmented reality
- an image obtained by superimposing a virtual image other than a captured image on a captured image of a camera is called an augmented reality (AR) image
- AR augmented reality
- mobile terminals such as smartphones equipped with a camera function and a display in addition to a communication function have become widespread, and applications using augmented reality (AR) images are often used in these smartphones.
- the reproduction cannot be resumed from the stopped position, and the reproduction from the start position of the content is executed again.
- Such a situation occurs, for example, in a configuration that provides information to the user by setting a marker on a street advertisement or the like that is in a crowded place where people are coming and going, making it difficult to transmit information to the user Let That is, in a place where traffic is intense, it is difficult for the person to move into the captured image and to have the camera continuously photograph the marker. As a result, the reproduction from the content start position is repeatedly executed, and it becomes difficult to reproduce the content to the end.
- the content is content including an image and sound
- the data processing unit stops reproduction of only the image when the feature image cannot be detected. Then, a process for continuously reproducing the sound is executed.
- the data processing unit executes a fade-out process for decreasing the content output level with time when the feature image cannot be detected.
- the data processing unit includes: As an aspect of content reproduction processing at the time of redetection of the feature image, (A) Resume processing for playing back content from a resume point stored in memory, or (B) Replay processing for playing back content from the beginning, Instruction information for selecting one of the processes is input, and content reproduction according to the input information is executed.
- the data processing unit includes: As an aspect of content reproduction processing at the time of redetection of the feature image, (A) Resume processing for playing back content from a resume point stored in memory, or (B) Replay processing for playing back content from the beginning, A user interface that enables input of instruction information on which process to select is displayed on the display unit.
- the feature image is an identification mark included in a captured image.
- the second aspect of the present disclosure is: An imaging unit for capturing images; A communication unit that performs communication with the server; A data processing unit that performs detection of a feature image from a captured image of the imaging unit and executes reproduction of content provided from a server; The data processing unit When the detection of the feature image from the captured image becomes impossible, the reproduction of the received content from the server is stopped, and the reproduction stop position is transmitted to the server as resume point information.
- the information processing apparatus executes the content reproduction from the resume point position by inputting the resume point information from the server on the condition that the feature image is subsequently detected again.
- the fourth aspect of the present disclosure is: A communication unit that performs communication with the client; A storage unit storing content to be provided to the client; A data processing unit that executes a feature image detection process from a photographed image of the client and a content providing process; The data processing unit There is a server that executes a feature image detection process from a photographed image of the client and provides feature image detection information to the client.
- the fifth aspect of the present disclosure is: An information processing method executed in an information processing apparatus,
- the data processing unit executes content reproduction processing according to the feature image based on detection of the feature image from the captured image obtained by imaging of the imaging unit,
- the data processing unit A process of specifying a resume point that is a playback position of the content according to the timing at which the feature image cannot be detected;
- the sixth aspect of the present disclosure is: A program for executing information processing in an information processing apparatus; Based on the feature image being detected from the captured image obtained by imaging by the imaging unit, the data processing unit is caused to execute a content reproduction process corresponding to the feature image, The program is stored in the data processing unit. A process of specifying a resume point that is a playback position of the content according to the timing at which the feature image cannot be detected; A program for executing the reproduction process of the content from a position corresponding to the resume point in response to the feature image being detected again after the feature image cannot be detected.
- the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
- a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
- system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
- FIG. 1 is a diagram illustrating a usage example of the processing of the present disclosure.
- the user 21 captures an image including the poster 10 using an information processing apparatus (mobile terminal) 30 such as a smartphone having a camera function.
- the captured image is, for example, a moving image.
- a marker (identifier) such as a cyber code (two-dimensional code) is printed.
- a marker (identifier) such as a cyber code (two-dimensional code) is an identification target.
- various feature images for example, the following features Images can be identified.
- the information processing device 30 includes marker information via a communication unit. Send the shooting information to the server.
- the server recognizes that the information processing apparatus (client) 30 is capturing an image including the poster 10 based on the shooting information received from the information processing apparatus (client) 30, and has already been stored in the content database in the server.
- Content for example, content composed of a moving image and sound obtained by photographing a person printed on the poster 10 is acquired and transmitted to the information processing apparatus 30.
- the reproduction virtual image 31 displayed on the information processing apparatus 30 is an image of a person who does not actually exist in the place where the user is present. However, it is displayed on the screen of the display unit of the information processing apparatus 30 as if standing at the place where the user 21 is located.
- the information processing apparatus 30 can record content including the virtual image 31 and sound.
- the content composed of the virtual image and the sound has been described as an example of processing provided from the server.
- the content is stored in the storage unit of the information processing device 30, and the photographed identifier (marker) is stored. Based on the above, it is also possible to reproduce the content acquired by executing the content search corresponding to the marker.
- the information processing apparatus 30 starts content reproduction when the marker 11 is recognized from the captured image of the information processing apparatus 30.
- content playback is stopped when the marker is no longer recognized, and when the marker is re-recognized again, the same content is displayed. It was common to perform a process such as playing from the beginning.
- FIG. 2 shows the following two states as the state in which an image is being captured in the information processing apparatus 30 owned by the user.
- A Marker recognition state
- B Marker temporary lost state
- the marker recognition state is a state in which the marker 11 is captured in a photographed image photographed by the imaging unit (camera) of the information processing apparatus 30 possessed by the user and marker recognition is possible. In this state, the content difference is executed based on the marker recognition, the reproduced virtual picture image 31 is displayed on the display unit, and the reproduced sound 32 is output even from the speaker.
- the marker temporary lost state is a state in which the marker 11 is lost from the captured image captured by the imaging unit (camera) of the information processing apparatus 30 possessed by the user and the marker cannot be recognized temporarily.
- FIG. 3 is a diagram illustrating a plurality of states in which the information processing apparatus of the present disclosure is set and transition processing of each state.
- the information processing apparatus is set to one of the following four states.
- (A) Marker recognition success state (b) Marker tracking state (c) Marker temporary lost state (d) Marker complete lost state
- (d) Marker complete lost state The information processing apparatus according to the present disclosure is one of the four states (a) to (d). Set to state.
- the initial state is set to “(d) marker complete lost state”. Thereafter, when the marker is recognized from the photographed image, the state transits to “(a) marker recognition success state” according to the transition line (S1) shown in FIG.
- (c) Marker temporary lost state when a marker is detected in the captured image within a predetermined threshold time ⁇ t, the transition is made to “(b) Marker tracking state” according to the transition line (S4). .
- the “(c) marker temporary lost state if the marker is not detected in the captured image within the predetermined threshold time ⁇ t and exceeds the predetermined threshold time ⁇ t, according to the transition line (S5), “ (D) Transition to the marker complete lost state.
- the information processing apparatus performs such state transition. Furthermore, as shown in FIG. (A) Marker recognition success state (b) Marker tracking state In these two states, content reproduction consisting of an image and sound is executed. That is, as shown in the marker recognition state shown in FIG. 2A, the reproduction virtual image 31 is superimposed on the captured image on the display unit of the information processing apparatus 30, and the reproduction sound 32 is output via the speaker. .
- FIG. 4 is a diagram illustrating a flowchart describing a sequence including content reproduction control processing executed by the information processing apparatus of the present disclosure.
- processing shown in the flow of FIG. 4 is performed by, for example, a data processing unit of the information processing apparatus, that is, a data processing unit having a CPU having a program execution function, according to a program (application) stored in the storage unit of the information processing apparatus. Executed under control.
- a data processing unit of the information processing apparatus that is, a data processing unit having a CPU having a program execution function, according to a program (application) stored in the storage unit of the information processing apparatus. Executed under control.
- the initial state of the information processing apparatus is the “marker complete lost state”, and when a marker is detected from the captured image, the state transitions to the “marker recognition success state”.
- code information such as a cyber code can be applied as described with reference to FIG.
- image information of a poster may be used, or various information such as a number printed on a poster can be used as a marker.
- Step S103 In step S102, when it is determined that the marker is in a “lost marker state” and the process proceeds to step S103, a marker detection process from the captured image is executed.
- Step S104 it is determined whether or not the marker detection process in step S103 is successful. If the marker detection process is successful, the state is changed to the “marker recognition success state”, and the process proceeds to step S105. On the other hand, if the marker detection process is not successful, the process returns to the kame image acquisition process in step S101, and the processes in and after step S101 are repeated.
- Step S105 If the marker detection process is successful in step S104, the state is changed to the “marker recognition success state”, and the process proceeds to step S105. In step S105, it is determined whether or not the reproduction position information is recorded in the memory (storage unit) of the information processing apparatus. This reproduction position information is reproduction stop position information in the previous content reproduction process.
- the storage location of the reproduction position information may be a memory (storage unit) of the information processing apparatus, or may be a storage unit in a server that performs communication via the communication unit of the information processing apparatus. .
- the flow shown in FIG. 4 is executed while executing communication processing with the server.
- step S105 it is determined whether or not the content reproduction is stopped halfway and the reproduction position information is recorded in the memory (storage unit) of the information processing apparatus. If the reproduction position information is recorded, the process proceeds to step S106. If reproduction position information is not recorded, the process proceeds to step S107.
- the playback content is content including the playback virtual image 31 and the playback audio 32 described with reference to FIG.
- This content is acquired from the storage unit of the information processing apparatus. Or in the structure using a server, it is good also as a structure acquired from the server in communication. In the following description, an example of processing for playing back content stored in the storage unit of the information processing apparatus will be described.
- Step S115 After the content reproduction is stopped in step S114, the content reproduction stop position information is recorded in the memory in step S115.
- the image reproduction is stopped in advance, and only the sound continues to be reproduced, and then the sound reproduction is stopped.
- the reproduction stop position stored in the memory is the image reproduction stop position or Set either of the audio playback stop positions.
- the search processing for the reproduction position information from the memory in step S105 described above is processing for extracting the reproduction stop position information from the memory.
- the reproduction position information is successfully acquired from the memory.
- the reproduction start position is determined.
- the image and sound are stopped from the image or audio stop position stopped in step S114. Starts playback at the same time.
- the marker is lost at the time of the content reproduction position (T1), that is, the marker detection from the photographed image has failed. From this point, the measurement of the lost time is started. That is, the elapsed time from (T1) shown in the figure is measured.
- the playback time (T1) of the content is an image playback stop position, and this image playback stop position is recorded in the memory.
- the image playback stop position is used as playback position information recorded in the memory.
- the marker is lost, the measurement of the lost time is started, and when the marker lost state continues until the elapsed time reaches a predetermined threshold time ⁇ t, the marker is completely lost.
- the audio playback is also stopped. That is, as shown in FIG. 5, the audio reproduction is stopped at the content reproduction position (T2).
- the marker detection process is continuously executed from the captured image, and when the marker detection is successful, the reproduction process at the second marker recognition in FIG. 5B is executed.
- FIG. 5 shows a process when a marker lost occurs at the content playback position (T3) in the content playback process at the time of (B) second marker recognition.
- the example of the content reproduction position (T3 to T4) shown in the figure is an example of processing when the marker is detected again before the elapsed time from the occurrence of the lost time exceeds the predetermined threshold time ⁇ t. That is, the process is performed when the marker is detected again at the time of the content playback position (T4) before the elapsed time from the occurrence of the loss exceeds the predetermined threshold time ⁇ t.
- the state transition is as follows. Before T3, marker tracking state, T3 to T4 are marker temporary lost state, Marker recognition success status at T4, After T4, again the marker tracking state, Such a state transition occurs.
- the playback stop position is recorded, and playback from the playback stop position is started when playback is resumed. No processing is performed. Also, even if marker loss occurs, audio playback continues for a predetermined time. For example, when the user points the camera to the marker position during that period, image playback is resumed, and continuous content playback is executed. It is also possible to make it.
- FIG. 6 as in FIG. (A) Playback processing at the time of first marker recognition, (B) Playback process at the time of second marker recognition, These are shown individually.
- the content includes images and sound.
- Image reproduction is stopped at the content reproduction position (T1), but audio reproduction is continuously executed.
- the fade-out process for gradually decreasing the audio level is executed. This fade-out audio reproduction process is executed during the reproduction process of only the audio at the content reproduction position (T1 to T2) shown in FIG.
- the marker detection process is continuously executed from the captured image, and when the marker detection is successful, the reproduction process at the second marker recognition in FIG. 6B is executed.
- FIG. 6B similarly to FIG. 5B, processing when a marker lost occurs at the content reproduction position (T3) and the marker is detected again before the predetermined threshold time ⁇ t is exceeded.
- An example is shown.
- the marker lost occurs at the content playback position (T3), the image playback stops, but the audio playback continues without stopping.
- a fade-out process for gradually reducing the playback sound level is executed.
- the information processing apparatus 100 includes a data processing unit 110, a storage unit 120, an imaging unit (camera) 130, a display unit 140, and a speaker 150.
- the data processing unit 110 includes a marker recognition tracking unit 111, a reproduction control unit 112, an image display processing unit 113, and an audio reproduction processing unit 114.
- the storage unit 120 stores content 121 and reproduction position information 122.
- the reproduction control unit 112 executes each process of steps S104 to S107 and steps S110 to S115 of the flow shown in FIG. That is, the marker recognition result information from the marker recognition tracking unit 111 is input, and content reproduction control is executed. In this content playback control, the state transition described above with reference to FIG. 3 is executed, and further, playback control described with reference to FIG. 5 and FIG. Perform processing to do.
- the reproduction position information 122 corresponding to the reproduction stop position in the storage unit 120 is executed, and when the reproduction is resumed, the reproduction position information 122 stored in the storage unit 120 is obtained and A process for restarting the reproduction process from the position is executed.
- the playback content is the content 121 of the storage unit 120, which is content including image and audio information.
- the image display processing unit 113 superimposes the image data in the content 121 on the captured image and outputs it to the display unit 140.
- the audio reproduction processing unit 114 outputs the audio data in the content 121 via the speaker 150. Note that when the fade-in and fade-out processing described above with reference to FIG. 6 is executed, the image display processing unit 113 and the audio reproduction processing unit 114 each output data according to an instruction from the reproduction control unit 112. Perform level control.
- the playback control unit 112 executes processing according to the user input information. For example, (1) Resume processing for executing halfway reproduction from the reproduction stop position described in the above-described embodiment, or (2) Replay processing for executing content playback from the beginning instead of from the playback stop position; Any one of (1) and (2) can be selected and reproduced in accordance with a user input.
- This input unit 160 Specifically, it can be realized as a user interface (IF) displayed on the display unit 140.
- IF user interface
- a user interface display example is shown in FIG.
- These UIs are displayed on the display unit 140 when a marker is detected again after the marker lost, for example.
- the content is played back from the beginning by touching this icon. That is, playback from the previous playback stop position is not executed, and content playback from the beginning is executed.
- the touch input for the playback instruction icon 251 [Replay] is not detected for a predetermined time from the beginning shown in FIG. 9A, the processing described in the above-described embodiment, that is, playback from the previous playback stop position is executed.
- This reproduction control is executed by the reproduction control unit 112.
- the information processing apparatus 300 illustrated in FIG. 11 is a configuration example in the case where the content 401 and the reproduction position information 402 are stored in the server 400.
- the information processing apparatus 300 communicates with the server 400 via the communication unit 115, acquires the content 401, transmits and receives the reproduction position information 402, and performs reproduction control.
- the reproduction control in this case is the same processing as the processing according to the flow of FIG. 4 described above.
- content acquisition and playback position information storage and retrieval processing are executed by communication with the server 400 via the communication unit 115.
- the data processing unit 110 of the information processing apparatus 300 as a client executes marker detection from the captured image of the imaging unit 130, stops playback of the content received from the server 400 when the marker is lost, and playback is stopped.
- the stop position information is transmitted to the server, the playback stop position information is input from the server on the condition that the subsequent marker re-detection is performed, and the content playback from the position corresponding to the playback stop position is executed.
- the information processing apparatus 500 shown in FIG. 12 has a configuration in which the content 401 and the reproduction position information 402 are stored in the server 400 as in the configuration shown in FIG. .
- the information processing apparatus 500 communicates with the server 400 via the communication unit 115, and provides the imaging unit (camera) 130 captured image 501 to the marker recognition tracking unit 403 of the server 400.
- the marker recognition follow-up unit 403 of the server 400 identifies the marker from the captured image and provides the marker identification information 502, which is the marker identification result, to the information processing apparatus 500.
- the reproduction control unit 112 of the information processing apparatus 500 receives the content from the server 400, further receives the marker identification information 501, and uses the received marker identification information 501 according to the flow of FIG. 4 described above. A process similar to the process is executed.
- the data processing unit 110 of the information processing apparatus 500 as a client transmits the captured image 501 of the imaging unit 130 to the server 400 via the communication unit 115, and the marker identification information based on the captured image from the server 400. 502 is received and reproduction of the provided content from the server 400 is executed.
- the data processing unit 110 stops the content reproduction, transmits the content position at which the reproduction is stopped to the server 400 via the communication unit 115, and then On the condition that the marker is again detected, the content position information transmitted from the server 400 to the server 400 immediately before is acquired, and the content from the position corresponding to the position is reproduced.
- the processing load of the information processing apparatus 500 is greatly reduced.
- the embodiment has been described in which the reproduction of content is controlled according to the lost marker, that is, the presence or absence of marker detection from the captured image of the information processing apparatus. Specifically, it is an example of processing for executing content reproduction control according to information on whether or not a marker is detected and the elapsed time from the marker lost.
- Information used as a trigger for content reproduction control in the information processing apparatus may be information other than this marker. Specifically, for example, the following information can be used as a trigger for content reproduction control.
- (A) Scene information of playback content (b) Sensor information of information processing device (c) Incoming call information of information processing device
- the playback control unit of the information processing device inputs such information and performs content playback control It is good also as a structure.
- the playback control unit of the information processing apparatus inputs metadata (attribute information) set with the playback content. For example, when the metadata is metadata indicating a content break, the content is stopped and the stop position is recorded in the memory. At the time of resuming playback, control is performed to restart the content from the position where the playback was stopped.
- metadata attribute information
- the reproduction control unit of the information processing device inputs sensor information of the information processing device, for example, acceleration sensor information, and detects a sudden movement of the information processing device.
- the reproduction of the content is stopped, and the reproduction stop position information is recorded in the memory. This process is performed, for example, when the user stores the information processing apparatus in the pocket. At the time of resuming playback, control is performed to restart the content from the position of the content that has been stopped.
- the playback control unit of the information processing apparatus inputs the incoming call information of the information processing apparatus, and stops the reproduction of content when there is an incoming call
- the playback stop position information is recorded in the memory. This process is a control that enables a content to be resumed from the position of the content whose reproduction has been stopped, for example, when a call is made after an incoming call and reproduction is resumed after the call ends.
- the information processing apparatus performs a process of superimposing and displaying the image data constituting the content on the captured image of the imaging unit in the content reproduction process.
- the content is content including an image and sound, and the data processing unit executes a process of stopping reproduction of only the image and continuing to reproduce sound when the feature image cannot be detected.
- the information processing apparatus according to any one of (1) to (9), wherein the feature image is an identification mark included in a captured image.
- the data processing unit stops the content reproduction in response to an input of scene information of the reproduction content, sensor information of the information processing device, or telephone incoming call information of the information processing device.
- the information processing apparatus according to any one of (1) to (10), wherein a process of recording the stopped content position in a memory is executed.
- an imaging unit that captures an image
- a communication unit that performs communication with the server
- a data processing unit that performs detection of a feature image from a captured image of the imaging unit and executes reproduction of content provided from a server
- the data processing unit When the detection of the feature image from the captured image becomes impossible, the reproduction of the received content from the server is stopped, and the reproduction stop position is transmitted to the server as resume point information.
- An information processing apparatus that inputs the resume point information from the server and performs content reproduction from the resume point position on the condition that the feature image is subsequently detected again.
- an imaging unit that captures an image
- a communication unit that performs communication with the server
- a data processing unit that transmits the captured image of the imaging unit to the server via the communication unit, receives feature image detection information based on the captured image from the server, and reproduces the provided content from the server;
- the data processing unit When the feature image detection information from the server indicates that the feature image cannot be detected, the content reproduction is stopped, and the content position where the reproduction is stopped is transmitted as resume point information to the server via the communication unit,
- An information processing apparatus that receives and reproduces content from a position corresponding to the resume point position from the server, on condition that subsequent feature image re-detection is performed.
- the series of processing described in the specification can be executed by hardware, software, or a combined configuration of both.
- the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
- the program can be recorded in advance on a recording medium.
- the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
- the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
- the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
特に、近年、通信機能に加えカメラ機能とディスプレイを備えたスマートフォンなどの携帯端末が普及し、これらのスマートフォンにおいて拡張現実(AR)画像を適用したアプリケーションが多く利用されている。
例えばスマートフォン等の携帯端末のカメラ機能を用いて、あるオブジェクト(被写体)を撮影すると、オブジェクト情報、例えば撮影されたオブジェクトに印刷されたサイバーコード(Cyber-Code)などのマーカを識別し、識別マーカに基づいて選択されたキャラクタや人物などの仮想画像を撮影画像に重畳して表示するとともに、その仮想画像が話かけるような音声を出力する。
なお、AR画像の生成、表示処理について開示した従来技術として、例えば特許文献1(特開2012-58838号公報)がある。
再度、ユーザが撮像部(カメラ)の方向を変更して撮影画像中にマーカを入れると、また同じ仮想画像や音声出力が最初から再生される。
(処理1)撮影画像からのマーカ認識による仮想画像と音声の再生開始、
(処理2)撮影画像からのマーカロストによる仮想画像と音声の再生終了、
撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行するデータ処理部と、
前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する特定部と、
前記データ処理部は、前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置から前記コンテンツの再生を実行する、
情報処理装置にある。
前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
(a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
(b)コンテンツを始めから再生するリプレイ処理、
いずれかの処理を選択するかの指示情報を入力し、入力情報に応じたコンテンツ再生を実行する。
前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
(a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
(b)コンテンツを始めから再生するリプレイ処理、
いずれかの処理を選択するかの指示情報を入力可能としたユーザインタフェースを表示部に表示する。
画像撮影を行う撮像部と、
サーバとの通信を実行する通信部と、
前記撮像部の撮影画像から特徴画像の検出を実行し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
前記データ処理部は、
前記撮影画像からの特徴画像の検出が不能となった場合に、サーバからの受信コンテンツの再生を停止し、再生停止位置をレジュームポイント情報としてサーバに送信し、
その後の特徴画像の再検出を条件として、前記サーバから前記レジュームポイント情報を入力して、該レジュームポイント位置からのコンテンツ再生を実行する情報処理装置にある。
画像撮影を行う撮像部と、
サーバとの通信を実行する通信部と、
前記撮像部の撮影画像を、前記通信部を介してサーバに送信し、サーバから前記撮影画像に基づく特徴画像検出情報を受信し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
前記データ処理部は、
前記サーバからの特徴画像検出情報が特徴画像の検出不能を示す場合、コンテンツ再生を停止し、再生を停止したコンテンツ位置を、レジュームポイント情報として前記通信部を介してサーバに送信し、
その後の特徴画像再検出を条件として、前記サーバから前記レジュームポイント位置に対応する位置からのコンテンツを受信して再生する情報処理装置にある。
クライアントとの通信を実行する通信部と、
前記クライアントに提供するコンテンツを格納した記憶部と、
前記クライアントの撮影画像からの特徴画像検出処理と、コンテンツの提供処理を実行するデータ処理部を有し、
前記データ処理部は、
前記クライアントの撮影画像からの特徴画像検出処理を実行し特徴画像検出情報を前記クライアントに提供するサーバにある。
情報処理装置において実行する情報処理方法であり、
データ処理部が、撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行し、
前記データ処理部は、
前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する処理と、
前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置からの前記コンテンツの再生処理を実行する情報処理方法にある。
情報処理装置において情報処理を実行させるプログラムであり、
データ処理部に、撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行させ、
前記プログラムは、前記データ処理部に、
前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する処理と、
前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置からの前記コンテンツの再生処理を実行させるプログラムにある。
具体的には、撮像部の撮影画像からマーカ等の特徴画像検出を実行し、マーカ検出に応じてコンテンツ再生を実行する。撮影画像からのマーカ検出が不能となったマーカロスト時に、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録し、その後のマーカ再検出を条件として、メモリからコンテンツ位置を取得し、取得したコンテンツ位置からコンテンツを再生する。コンテンツは画像および音声を含むコンテンツであり、マーカロスト時に画像のみ再生を停止し、音声再生を継続し、マーカロスト時からの経過時間が予め設定した閾値時間を超えた場合に、音声の再生を停止する。
これらの構成により、マーカに応じたコンテンツ再生処理において、マーカロスト時、およびマーカ再検出時の改善された再生制御が実現される。
1.本開示の処理の概要について
2.本開示のコンテンツ再生制御における状態遷移について
3.情報処理装置の実行するコンテンツ再生制御処理シーケンスについて
4.情報処理装置の構成例について
5.その他の実施例について
6.本開示の構成のまとめ
まず、図1以下を参照して、本開示の処理の概要について説明する。
図1は、本開示の処理の一利用例を示す図である。ユーザ21がカメラ機能を持つスマートフォン等の情報処理装置(携帯端末)30を用いて、ポスター10を含む画像を撮影する。なお、撮影画像は例えば動画像である。
なお、以下の実施例ではサイバーコード(二次元コード)等のマーカ(識別子)を識別対象とした例について説明するが、本開示の構成においては、様々な特徴画像、例えば、以下のような特徴画像を識別対象とするこが可能である。
・二次元バーコード(サイバーコード)
・特定の人の顔や特定の物体(本の表紙)などの特定物体認識の対象
・車、ペン、犬などの一般物体認識の対象
情報処理装置30は、通信部を介してマーカ情報を含む撮影情報をサーバに送信する。サーバは、情報処理装置(クライアント)30から受信した撮影情報に基づいて、情報処理装置(クライアント)30がポスター10を含む画像を撮影していると認識し、サーバ内のコンテンツデータベースに格納済みのコンテンツ、例えば、ポスター10に印刷されている人物を撮影した動画像と音声からなるコンテンツを取得して、情報処理装置30に送信する。
図1に示すように、情報処理装置30は、情報処理装置30の撮像部(カメラ)で実際に撮影している撮影画像と、サーバから受信した仮想画像を併せて表示する。このような画像は、拡張現実(AR:Augmented Reality)画像と呼ばれる。
さらに、仮想画像の再生に併せてサーバから受信した音声情報を出力する。
しかし、情報処理装置30の表示部の画面中には、あたかもユーザ21のいるその場所に立っているように表示される。
情報処理装置30は、この仮想画像31および音声を含むコンテンツを記録することが可能となる。
しかし、前述したように、マーカ認識をトリガとしてコンテンツ再生を行う多くの装置では、マーカが認識されなくなるとコンテンツ再生を停止し、その後、再度、マーカが再認識された場合には、同じコンテンツを最初から再生するといった処理を行なうのが一般的であった。
図2には、ユーザが持つ情報処理装置30において画像を撮影中の状態として以下の2つの状態を示している。
(A)マーカ認識状態
(B)マーカ一時ロスト状態
この状態では、マーカ認識に基づいてコンテンツ差異性が実行され、再生仮想絵画像31が表示部に表示され、再生音声32がスピーカすら出力される。
このようなコンテンツ再生制御によって、マーカが瞬間的に撮影画像から消えた場合であっても、ユーザは例えば広告情報などのコンテンツを聞き逃すことはなくなる。
以下、この本開示のコンテンツ再生制御処理の詳細について説明する。
次に、本開示のコンテンツ再生制御における状態遷移について説明する。
図3は、本開示の情報処理装置が設定される複数の状態と各状態の遷移処理について説明する図である。
(a)マーカ認識成功状態
(b)マーカトラッキング状態
(c)マーカ一時ロスト状態
(d)マーカ完全ロスト状態
本開示の情報処理装置は、これら(a)~(d)の4状態のいずれかの状態に設定される。
(b)マーカトラッキング状態とは、認識したマーカを追従している状態である。
(c)マーカ一時ロスト状態とは、「マーカトラッキング状態」において追従していたマーカを見失い(ロスト)、見失った(ロスト)時間からの経過時間が、予め規定した閾値時間Δt以下である状態である。
(d)マーカ完全ロスト状態とは、「マーカトラッキング状態」において追従していたマーカを見失い(ロスト)、見失った(ロスト)時間からの経過時間が、予め規定した閾値時間Δtを超えた状態である。
この「(b)マーカトラッキング状態」においてマーカが撮影画像中から検出されている間は、「(b)マーカトラッキング状態」に留まる。
「(c)マーカ一時ロスト状態」では、この状態の開始時間からの経過時間が計測され、予め規定した閾値時間Δtを超えたか否かが判定される。
一方、「(c)マーカ一時ロスト状態」において、予め規定した閾値時間Δt以内に、マーカが撮影画像中から検出されず、予め規定した閾値時間Δtを超えると、遷移ライン(S5)に従って、「(d)マーカ完全ロスト状態」に遷移する。
「(d)マーカ完全ロスト状態」において、撮影画像からマーカが認識されない場合は、「(d)マーカ完全ロスト状態」を継続する。
さらに、図3に示すように、
(a)マーカ認識成功状態
(b)マーカトラッキング状態
これらの2つの状態では、画像と音声からなるコンテンツ再生を実行する。
すなわち、図2(A)に示すマーカ認識状態に示すように、情報処理装置30の表示部に撮影画像に重畳して再生仮想画像31を重畳表示し、スピーカを介して再生音声32を出力する。
(c)マーカ一時ロスト状態
においては、音声のみの再生を実行する。
すなわち、図2(B)に示すマーカ一時ロスト状態に示すように、情報処理装置30のスピーカを介して再生音声32を出力する。表示部には、再生仮想画像31は重畳表示しない。
また、
(d)マーカ完全ロスト状態
においては、画像、音声の再生を停止する。
次に、本開示の情報処理装置が実行するコンテンツ再生制御処理らシーケンスについて説明する。
図4は、本開示の情報処理装置が実行するコンテンツ再生制御処理らシーケンスを説明するフローチャートを示す図である。
以下、各ステップの処理の詳細について、順次、説明する。
まず、情報処理装置は、アプリケーションを起動し、ステップS101において、情報処理装置の撮像部(カメラ)を介して画像を撮影する。例えば図1に示すようなマーカを持つポスターを撮影する。
なお、情報処理装置のデータ処理部は、加増撮影開始後、撮影画像にマーカが含まれるか否かのマーカ検索処理を継続して実行する。
次に、情報処理装置はステップS102において、撮影画像中からマーカが検出されない「マーカ完全ロスト状態」にあるか否かを判定する。
前述したように、初期状態では、「マーカ完全ロスト状態」にある。
「マーカ完全ロスト状態」にあると判定した場合は、ステップS103に進む。
「マーカ完全ロスト状態」でない場合、すなわち、既にマーカが検出された場合は、ステップS109に進み、マーカのトラッキング処理を行なう。すなわち、図3(b)に示すマーカトラッキング状態でのマーカ追従処理を実行する。
ステップS102において、「マーカ完全ロスト状態」にあると判定し、ステップS103に進むと、撮影画像からのマーカ検出処理を実行する。
ステップS104では、ステップS103のマーカ検出処理に成功したか否かを判定する。
マーカ検出処理に成功すると、状態を「マーカ認識成功状態」に遷移させて、ステップS105に進む。
一方、マーカ検出処理に成功していない場合は、ステップS101のかめら画像取得処理に戻り、ステップS101以下の処理を繰り返す。
ステップS104で、マーカ検出処理に成功すると、状態を「マーカ認識成功状態」に遷移させて、ステップS105に進む。
ステップS105では、再生位置情報が情報処理装置のメモリ(記憶部)に記録されているか否かを判定する。
この再生位置情報とは、前回のコンテンツ再生処理における再生停止位置情報である。
なお、以下の説明では、サーバを利用しない構成例として説明する。
ステップS105では、コンテンツ再生が途中で停止され、再生位置情報が情報処理装置のメモリ(記憶部)に記録されているか否かを判定する。
再生位置情報が記録されている場合はステップS106に進む。
再生位置情報が記録されていない場合はステップS107に進む。
ステップS105において、情報処理装置のメモリ(記憶部)に前回のコンテンツ再生処理における再生停止位置情報が記録されていると判定した場合、情報処理装置はステップS106において、再生停止位置情報をメモリから取得し、取得したコンテンツの再生停止位置を、コンテンツ再生開始位置として、その再生開始位置をコンテンツから検索する再生位置シーク処理を実行する。
情報処理装置は、ステップS107において、ステップS106でのシーク処理によって検出したコンテンツ再生開始位置からのコンテンツ再生を開始する。
なお、ステップS105において、情報処理装置のメモリ(記憶部)に前回のコンテンツ再生処理における再生停止位置情報が記録されていないと判定した場合は、ステップS107では、コンテンツのスタート部分からコンテンツ再生を開始する。
以下の説明では、情報処理装置の記憶部に格納したコンテンツを再生する処理例として説明する。
ステップS108では、所定の終了条件、例えばコンテンツの再生終了、あるいは、アプリケーションの終了等、所定の終了条件が発生したか否かを判定し、終了条件が発生した場合は処理を終了する。
終了条件が発生していない場合は、ステップS101に戻り、ステップS101以下の処理を継続的に実行する。
ステップS109は、前述したように、ステップS102における処理、すなわち、撮影画像中からマーカが検出されない「マーカ完全ロスト状態」にあるか否かの判定処理において、「マーカ完全ロスト状態」でない場合、すなわち、既にマーカが検出された場合に移行する処理ステップである。
ステップS109では、検出されたマーカのトラッキングを実行する。すなわち、図3(b)に示すマーカトラッキング状態でのマーカ追従処理を実行する。
ステップS110では、マーカトラッキングにおいてマーカトラッキング(追従)が成功しているか否かを判定する。
成功している場合は、ステップS107に進み、コンテンツ再生を継続する。
マーカトラッキングにおいてマーカトラッキング(追従)が失敗、すなわちマーカを見失った(ロスト)場合は、ステップS111に進む。この場合、ジョウタイハ、図3に示す「(c)マーカ一時ロスト状態」に移行する。
ステップS111では、すなわちマーカを見失った(ロスト)時間からの経過時間の計測を開始する。
ステップS112では、ステップS111で計測を開始したマーカのロスト発生時からの経過時間(ロスト時間)が予め規定した閾値時間Δtを超えたか否かを判定する。
ロスト時間>閾値時間Δt
上記判定式を満足する場合は、ステップS114に進む。ステップS114に進む時点で、状態は、図3に示す「(d)マーカ完全ロスト状態」に遷移する。
マーカのロスト発生時からの経過時間(ロスト時間)が予め規定した閾値時間Δtを超えておらず、上記判定式を満足しない場合は、ステップS113に進む。
ステップS113は、マーカのロスト発生時からの経過時間(ロスト時間)が予め規定した閾値時間Δtを超えていない場合の処理である。すなわち、図3に示す「(c)マーカ一時ロスト状態」における処理である。ステップS113では、コンテンツ中の画像の再生を停止、すなわち、撮影画像に仮想画像を重畳表示する処理を停止する。ただし、音声出力のみは継続する。
具体的には、図2(B)に示すマーカ一時ロスト状態に対応する音声のみのコンテンツ再生を継続する。
ステップS114は、マーカのロスト発生時からの経過時間(ロスト時間)が予め規定した閾値時間Δtを超えた場合の処理である。すなわち、図3に示す「(d)マーカ完全ロスト状態」に移行した場合の処理である。
ステップS114では、画像と音声の両者の再生を停止状態にする。すなわち、撮影画像に仮想画像を重畳表示する処理も音声再生も停止する。
ステップS114でのコンテンツ再生停止後、ステップS115において、コンテンツの再生停止位置情報をメモリに記録する。
なお、コンテンツ中、画像再生は先行して停止され、音声のみが再生継続し、その後、音声再生が停止する処理が実行されるが、メモリに格納する再生停止位置は、画像再生停止位置、あるいは音声再生停止位置のいずれかの設定とする。
ステップS115では、ステップS114での画像再生停止位置、あるいは音声再生停止位置に対応する再生位置情報がメモリに記録される。
ステップS105でメモリから再生位置情報の取得に成功し、ステップS107において、再生開始位置が決定され、ステップS107でのコンテンツ再生の再開時には、ステップS114で停止した画像あるいは音声の停止位置から画像と音声が併せて再生を開始する。
再生コンテンツは、コンテンツ再生位置として、再生開始位置=T0、再生終了位置=T5の、再生位置=T0~T5からなるコンテンツである。コンテンツには画像、音声が含まれる。
画像は、図1、図2に示した再生仮想画像31に対応し、撮影画像等のベース画像に重畳表示される画像である。
音声は、画像に併せて同期再生される例えば図1、図2に示す再生音声32に対応する。
(A)1回目のマーカ認識時の再生処理、
(B)2回目のマーカ認識時の再生処理、
これらを個別に示している。
この時点から、ロスト時間の計測が開始される。すなわち、図に示す(T1)からの経過時間が計測される。
マーカのロスト発生時において、コンテンツ中の画像再生が停止される。
すなわちコンテンツの再生時間(T1)が画像の再生停止位置となり、この画像再生停止位置がメモリに記録される。
なお、本処理例では、画像再生停止位置をメモリに記録する再生位置情報とする。
この音声再生処理は、図5に示すコンテンツ再生位置(T1~T2)の音声のみの再生処理に相当する。
(A)1回目のマーカ認識時のコンテンツ再生において、コンテンツの再生時間(T1)が画像の再生停止位置となり、この画像再生停止位置がメモリに記録されている。
この処理によって、ユーザは、コンテンツを始めからではなく、再生停止した位置から視聴することが可能となる。
ただし、図に示すコンテンツ再生位置(T3~T4)の例は、ロスト発生時からの経過時間が既定しきい値時間Δtを超える前にマーカが再検出された場合の処理例である。
すなわち、ロスト発生時からの経過時間が既定しきい値時間Δtを超える前のコンテンツ再生位置(T4)の時点で、マーカが再検出された場合の処理である。
この場合、状態遷移は以下の通りである。
T3以前は、マーカトラッキング状態、
T3~T4は、マーカ一時ロスト状態、
T4でマーカ認識成功状態、
T4以降は、再度、マーカトラッキング状態、
このような状態遷移となる。
その後(T4)においてマーカが再検出されると、音声再生はそのまま継続し、画像についても、音声と同期した再生位置から再生を開始する。
また、マーカロストが発生しても、音声の再生が所定時間継続するので、例えばその期間にユーザがマーカ位置にカメラを向けるといった処理を行なうことで、画像再生も再開され、継続したコンテンツ再生を実行させることも可能となる。
この再生制御処理例を図6に示す。
(A)1回目のマーカ認識時の再生処理、
(B)2回目のマーカ認識時の再生処理、
これらを個別に示している。
すなわち、コンテンツは、再生位置=T0~T5からなるコンテンツである。コンテンツには画像、音声が含まれる。
再生位置(T1)でマーカロストが発生し、そのまま、閾値時間(Δt)が経過した場合の処理である。
この処理例では、マーカのロスト発生時(T1)において、コンテンツ中の画像再生が停止され、この画像再生停止位置がメモリに記録される。
このフェードアウト音声再生処理は、図6(A)に示すコンテンツ再生位置(T1~T2)の音声のみの再生処理時に実行する。
(A)1回目のマーカ認識時のコンテンツ再生において、コンテンツの再生時間(T1)が画像の再生停止位置となり、この画像再生停止位置がメモリに記録されている。
本処理例では、メモリに格納された再生位置情報(T1)より前の位置を再生開始位置として、この再生開始位置から画像と音声のレベルを徐々に上げていくフェードイン再生処理を実行する。
コンテンツ再生位置(T3)で、マーカロストが発生し他場合、画像再生は停止するが、音声再生は停止せず、継続する。ただし、本処理例では、再生音声レベルを徐々に低下させるフェードアウト処理を実行している。
次に、図7を参照して上述の処理を実行する情報処理装置の構成例について説明する。
データ処理部110は、マーカ認識追従部111、再生制御部112、画像表示処理部113、音声再生処理部114を有する。
記憶部120には、コンテンツ121と、再生位置情報122が記録される。
マーカ認識追従部111は、図4のフローのステップS103やステップS109の処理を実行する。すなわち、撮像部(カメラ)130の撮影画像からマーカを検出し、さらに、検出マーカのトラッキング(追従)処理を実行する。
マーカは前述したように、例えばサイバーコードなどのコード情報、あるいは特定の画像情報など、さまざまな情報が利用可能である。
すなわち、マーカ認識追従部111からのマーカ認識結果情報を入力して、コンテンツの再生制御を実行する。
このコンテンツ再生制御においては、先に図3を参照して説明した状態遷移を実行し、さらに、図5や図6を参照して説明した再生制御、すなわち画像の再生停止後、音声を継続再生する処理などを行う。
なお、再生コンテンツは、記憶部120のコンテンツ121であり、画像と音声情報を含むコンテンツである。
音声再生処理部114は、コンテンツ121中の音声データをスピーカ150を介して出力する。
なお、先に図6を参照して説明したフェードイン、フェードアウト処理を実行する場合は、再生制御部112の指示に応じて画像表示処理部113と、音声再生処理部114が、それぞれ出力データのレベル制御を実行する。
CPU等によって構成されるデータ処理部110が記憶部120内に格納されたプログラム(アプリケーション)を実行することで、先に説明した図鵜に示すフローに従った処理が実行される。
図7の情報処理装置100との差異は、入力部160を有する点である。
入力部160は、例えばコンテンツ再生停止後のコンテンツ再生再開処理時の処理態様を決定するためのユーザ入力を入力して、再生制御部112に通知する。
例えば、
(1)上述した実施例において説明した再生停止位置からの途中再生を実行させるレジューム(Resume)処理、あるいは、
(2)再生停止位置からではなく、始めからのコンテンツ再生を実行させるリプレイ(Replay)処理、
これら(1),(2)のいずれかをユーザの入力に応じて選択再生可能とする。
ユーザインタフェース表示例を図9に示す。
(A)最初から再生指示アイコン251[Replay]を表示した例、
(B)最初から再生指示アイコン251[Replay]と、停止位置から再生指示アイコン252[Resume]を表示した例、
これらの2つのUI表示例を示している。
例えば、図9(A)に示す最初から再生指示アイコン251[Replay]のみが表示された構成では、このアイコンをタッチすることで、コンテンツの再生は最初からの再生として実行される。すなわち、前回の再生停止位置からの再生は実行されず、最初からのコンテンツ再生を実行する。
図9(A)に示す最初から再生指示アイコン251[Replay]に対するタッチ入力を所定時間検出しない場合は、前述の実施例で説明した処理、すなわち前回の再生停止位置からの再生を実行する。
この再生制御は、再生制御部112において実行する。
一方、停止位置から再生指示アイコン252[Resume]のタッチ入力を検出すると、前回の再生停止位置からの再生を実行する。
この再生制御は、再生制御部112において実行する。
ユーザは、この画像を確認して、再生停止位置からの再生とするか、始めからの再生とするかを選択することが可能となる。
図8に示す情報処理装置200は、このようなユーザ入力に応じた制御を可能とした情報処理装置である。
情報処理装置300は通信部115を介してサーバ400と通信を実行し、コンテンツ401の取得、再生位置情報402の送信、および受信を実行して、再生制御を行う。
ただし、コンテンツの取得や、再生位置情報の格納や取り出し処理については、通信部115を介したサーバ400との通信によって実行することになる。
サーバ400のマーカ認識追従部403は、撮影画像からマーカを識別して、マーカの識別結果であるマーカ識別情報502を情報処理装置500に提供する。
情報処理装置500の再生制御部112は、サーバ400からコンテンツを受信し、さらにマーカ識別情報501を受信し、受信したマーカ識別情報501を利用して、先に説明した図4のフローに従った処理と同様の処理を実行する。
データ処理部110は、サーバからのマーカ検出情報がマーカ検出不能を示すマーカロストを示す場合、コンテンツ再生を停止し、再生を停止したコンテンツ位置を、通信部115を介してサーバ400に送信し、その後のマーカ再検出を条件として、サーバ400から直前にサーバ400に送信したコンテンツ位置情報を取得して、その位置に対応する位置からのコンテンツを再生する。
この処理構成とすることで、情報処理装置500の処理負荷が大きく軽減されることになる。
上述した実施例では、マーカのロスト、すなわち、情報処理装置の撮影画像中からのマーカ検出の有無に応じてコンテンツの再生制御を実行する実施例について説明した。
具体的には、マーカが検出されているか否かの情報、およびマーカロストからの経過時間に応じてコンテンツの再生制御を実行する処理例である。
具体的には、例えば以下の情報をコンテンツ再生制御のトリガとして利用可能である。
(a)再生コンテンツのシーン情報
(b)情報処理装置のセンサ情報
(c)情報処理装置の電話着信情報
例えば、情報処理装置の再生制御部において、これらの情報を入力してコンテンツ再生制御を行う構成としてもよい。
(a)再生コンテンツのシーン情報を利用する場合、情報処理装置の再生制御部は、再生コンテンツに付属して設定されたメタデータ(属性情報)を入力する。
例えばメタデータが、コンテンツの区切りを示すメタデータである場合にコンテンツを停止し、その停止位置をメモリに記録するといった処理を行なう。
再生再開時点においては、再生停止したコンテンツの区切り位置からコンテンツを再開させる制御を行う。
再生再開時点においては、再生停止したコンテンツの位置からコンテンツを再開させる制御を行う。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1)撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行するデータ処理部と、
前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する特定部と、
前記データ処理部は、前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置から前記コンテンツの再生を実行する、
情報処理装置。
(3)前記コンテンツは画像および音声を含むコンテンツであり、前記データ処理部は、前記特徴画像の検出が不能となった場合に画像のみ再生を停止し、音声を継続再生する処理を実行する前記(1)または(2)に記載の情報処理装置。
(5)前記データ処理部は、前記特徴画像の再検出を条件として、メモリから前記レジュームポイントを取得し、取得したコンテンツ位置から画像と音声を含むコンテンツ再生を実行する前記(1)~(4)いずれかに記載の情報処理装置。
(7)前記データ処理部は、前記特徴画像の再検出時に、コンテンツ出力レベルを時間経過とともに上昇させるフェードイン処理を実行する前記(1)~(6)いずれかに記載の情報処理装置。
前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
(a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
(b)コンテンツを始めから再生するリプレイ処理、
いずれかの処理を選択するかの指示情報を入力し、入力情報に応じたコンテンツ再生を実行する前記(1)~(7)いずれかに記載の情報処理装置。
前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
(a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
(b)コンテンツを始めから再生するリプレイ処理、
いずれかの処理を選択するかの指示情報を入力可能としたユーザインタフェースを表示部に表示する前記(1)~(8)いずれかに記載の情報処理装置。
(11)前記データ処理部は、前記再生コンテンツのシーン情報、または、前記情報処理装置のセンサ情報、または、前記情報処理装置の電話着信情報の入力に応じて、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録する処理を実行する前記(1)~(10)いずれかに記載の情報処理装置。
サーバとの通信を実行する通信部と、
前記撮像部の撮影画像から特徴画像の検出を実行し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
前記データ処理部は、
前記撮影画像からの特徴画像の検出が不能となった場合に、サーバからの受信コンテンツの再生を停止し、再生停止位置をレジュームポイント情報としてサーバに送信し、
その後の特徴画像の再検出を条件として、前記サーバから前記レジュームポイント情報を入力して、該レジュームポイント位置からのコンテンツ再生を実行する情報処理装置。
サーバとの通信を実行する通信部と、
前記撮像部の撮影画像を、前記通信部を介してサーバに送信し、サーバから前記撮影画像に基づく特徴画像検出情報を受信し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
前記データ処理部は、
前記サーバからの特徴画像検出情報が特徴画像の検出不能を示す場合、コンテンツ再生を停止し、再生を停止したコンテンツ位置を、レジュームポイント情報として前記通信部を介してサーバに送信し、
その後の特徴画像再検出を条件として、前記サーバから前記レジュームポイント位置に対応する位置からのコンテンツを受信して再生する情報処理装置。
前記クライアントに提供するコンテンツを格納した記憶部と、
前記クライアントの撮影画像からの特徴画像検出処理と、コンテンツの提供処理を実行するデータ処理部を有し、
前記データ処理部は、
前記クライアントの撮影画像からの特徴画像検出処理を実行し特徴画像検出情報を前記クライアントに提供するサーバ。
なお、たとえば、上記(1)に記載の構成は、ユーザ側の端末の構成であってもよいが、ユーザ端末と通信するサーバの構成であってもよい。
具体的には、撮像部の撮影画像からマーカ等の特徴画像検出を実行し、マーカ検出に応じてコンテンツ再生を実行する。撮影画像からのマーカ検出が不能となったマーカロスト時に、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録し、その後のマーカ再検出を条件として、メモリからコンテンツ位置を取得し、取得したコンテンツ位置からコンテンツを再生する。コンテンツは画像および音声を含むコンテンツであり、マーカロスト時に画像のみ再生を停止し、音声再生を継続し、マーカロスト時からの経過時間が予め設定した閾値時間を超えた場合に、音声の再生を停止する。
これらの構成により、マーカに応じたコンテンツ再生処理において、マーカロスト時、およびマーカ再検出時の改善された再生制御が実現される。
11 マーカ
21 ユーザ
30 情報処理装置(携帯端末)
31 再生仮想画像
32 再生音声
100 情報処理装置
110 データ処理部
111 マーカ認識追従部
112 再生制御部
113 画像表示処理部
114 音声再生処理部
120 記憶部
121 コンテンツ
122 再生位置情報
130 撮像部(カメラ)
140 表示部
150 スピーカ
160 入力部
200 情報処理装置
300 情報処理装置
400 サーバ
401 コンテンツ
402 再生位置情報
403 マーカ認識追従部
500 情報処理装置
Claims (16)
- 撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行するデータ処理部と、
前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する特定部と、
前記データ処理部は、前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置から前記コンテンツの再生を実行する、
情報処理装置。 - 前記データ処理部は、
コンテンツ再生処理において、コンテンツを構成する画像データを前記撮像部の撮影画像に重畳表示する処理を行なう請求項1に記載の情報処理装置。 - 前記コンテンツは画像および音声を含むコンテンツであり、
前記データ処理部は、
前記特徴画像の検出が不能となった場合に画像のみ再生を停止し、音声を継続再生する処理を実行する請求項1に記載の情報処理装置。 - 前記データ処理部は、
前記特徴画像の検出が不能となった時からの経過時間を計測し、経過時間が予め設定した閾値時間を超えた場合に、音声の再生を停止する請求項3に記載の情報処理装置。 - 前記データ処理部は、
前記特徴画像の再検出を条件として、メモリから前記レジュームポイントを取得し、取得したコンテンツ位置から画像と音声を含むコンテンツ再生を実行する請求項3に記載の情報処理装置。 - 前記データ処理部は、
前記特徴画像の検出が不能となった場合に、コンテンツ出力レベルを時間経過とともに低下させるフェードアウト処理を実行する請求項1に記載の情報処理装置。 - 前記データ処理部は、
前記特徴画像の再検出時に、コンテンツ出力レベルを時間経過とともに上昇させるフェードイン処理を実行する請求項1に記載の情報処理装置。 - 前記データ処理部は、
前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
(a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
(b)コンテンツを始めから再生するリプレイ処理、
いずれかの処理を選択するかの指示情報を入力し、入力情報に応じたコンテンツ再生を実行する請求項1に記載の情報処理装置。 - 前記データ処理部は、
前記特徴画像の再検出時におけるコンテンツ再生処理の態様として、
(a)コンテンツをメモリに格納されたレジュームポイントから再生するレジューム処理、または、
(b)コンテンツを始めから再生するリプレイ処理、
いずれかの処理を選択するかの指示情報を入力可能としたユーザインタフェースを表示部に表示する請求項1に記載の情報処理装置。 - 前記特徴画像は、撮影画像に含まれる識別マークである請求項1に記載の情報処理装置。
- 前記データ処理部は、
前記再生コンテンツのシーン情報、または、前記情報処理装置のセンサ情報、または、前記情報処理装置の電話着信情報の入力に応じて、コンテンツ再生を停止し、再生を停止したコンテンツ位置をメモリに記録する処理を実行する請求項1に記載の情報処理装置。 - 画像撮影を行う撮像部と、
サーバとの通信を実行する通信部と、
前記撮像部の撮影画像から特徴画像の検出を実行し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
前記データ処理部は、
前記撮影画像からの特徴画像の検出が不能となった場合に、サーバからの受信コンテンツの再生を停止し、再生停止位置をレジュームポイント情報としてサーバに送信し、
その後の特徴画像の再検出を条件として、前記サーバから前記レジュームポイント情報を入力して、該レジュームポイント位置からのコンテンツ再生を実行する情報処理装置。 - 画像撮影を行う撮像部と、
サーバとの通信を実行する通信部と、
前記撮像部の撮影画像を、前記通信部を介してサーバに送信し、サーバから前記撮影画像に基づく特徴画像検出情報を受信し、サーバからの提供コンテンツの再生を実行するデータ処理部を有し、
前記データ処理部は、
前記サーバからの特徴画像検出情報が特徴画像の検出不能を示す場合、コンテンツ再生を停止し、再生を停止したコンテンツ位置を、レジュームポイント情報として前記通信部を介してサーバに送信し、
その後の特徴画像再検出を条件として、前記サーバから前記レジュームポイント位置に対応する位置からのコンテンツを受信して再生する情報処理装置。 - クライアントとの通信を実行する通信部と、
前記クライアントに提供するコンテンツを格納した記憶部と、
前記クライアントの撮影画像からの特徴画像検出処理と、コンテンツの提供処理を実行するデータ処理部を有し、
前記データ処理部は、
前記クライアントの撮影画像からの特徴画像検出処理を実行し特徴画像検出情報を前記クライアントに提供するサーバ。 - 情報処理装置において実行する情報処理方法であり、
データ処理部が、撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行し、
前記データ処理部は、
前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する処理と、
前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置からの前記コンテンツの再生処理を実行する情報処理方法。 - 情報処理装置において情報処理を実行させるプログラムであり、
データ処理部に、撮像部の撮像により得られる撮像画像から特徴画像が検出されることに基づき、前記特徴画像に応じたコンテンツの再生処理を実行させ、
前記プログラムは、前記データ処理部に、
前記特徴画像の検出が不能となったタイミングに応じた前記コンテンツの再生位置であるレジュームポイントを特定する処理と、
前記特徴画像の検出が不能となった後に再度前記特徴画像が検出されることに応じて、前記レジュームポイントに応じた位置からの前記コンテンツの再生処理を実行させるプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014521001A JP6128123B2 (ja) | 2012-06-12 | 2013-04-24 | 情報処理装置、および情報処理方法、並びにプログラム |
EP13804985.3A EP2860968B1 (en) | 2012-06-12 | 2013-04-24 | Information processing device, information processing method, and program |
BR112014030582A BR112014030582A2 (pt) | 2012-06-12 | 2013-04-24 | dispositivo de processamento de informação, servidor, método de processamento de informação, e, programa. |
CN201380029785.9A CN104380717B (zh) | 2012-06-12 | 2013-04-24 | 信息处理装置、信息处理方法、以及计算机可读存储介质 |
US14/405,934 US9837121B2 (en) | 2012-06-12 | 2013-04-24 | Information processing device, information processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-133321 | 2012-06-12 | ||
JP2012133321 | 2012-06-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013187131A1 true WO2013187131A1 (ja) | 2013-12-19 |
Family
ID=49757966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/061997 WO2013187131A1 (ja) | 2012-06-12 | 2013-04-24 | 情報処理装置、および情報処理方法、並びにプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US9837121B2 (ja) |
EP (1) | EP2860968B1 (ja) |
JP (1) | JP6128123B2 (ja) |
CN (1) | CN104380717B (ja) |
BR (1) | BR112014030582A2 (ja) |
WO (1) | WO2013187131A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016099638A (ja) * | 2014-11-18 | 2016-05-30 | セイコーエプソン株式会社 | 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム |
JP2016139375A (ja) * | 2015-01-29 | 2016-08-04 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
JP2016139368A (ja) * | 2015-01-29 | 2016-08-04 | コニカミノルタ株式会社 | Ar装置、ar実現方法、およびコンピュータプログラム |
JP2016218594A (ja) * | 2015-05-18 | 2016-12-22 | セイコーエプソン株式会社 | 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム |
JP2020065135A (ja) * | 2018-10-16 | 2020-04-23 | 株式会社Nttぷらら | 情報処理装置、情報処理システム、情報処理方法及びコンピュータプログラム |
US10664975B2 (en) | 2014-11-18 | 2020-05-26 | Seiko Epson Corporation | Image processing apparatus, control method for image processing apparatus, and computer program for generating a virtual image corresponding to a moving target |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1665769B1 (en) * | 2003-09-12 | 2014-03-19 | OpenTV, Inc. | Method and system for controlling recording and playback of interactive applications |
JP6303550B2 (ja) * | 2014-02-03 | 2018-04-04 | ブラザー工業株式会社 | 表示プログラムおよび表示装置 |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
US10559133B2 (en) * | 2018-02-07 | 2020-02-11 | Dell Products L.P. | Visual space management across information handling system and augmented reality |
US11354815B2 (en) * | 2018-05-23 | 2022-06-07 | Samsung Electronics Co., Ltd. | Marker-based augmented reality system and method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010055624A1 (ja) * | 2008-11-13 | 2010-05-20 | 三菱電機株式会社 | 再生装置及び再生方法 |
JP2011187001A (ja) * | 2010-03-11 | 2011-09-22 | Nec Corp | 案内情報提供装置、案内情報提供方法、案内情報提供プログラム |
JP2012058838A (ja) | 2010-09-06 | 2012-03-22 | Sony Corp | 画像処理装置、プログラム及び画像処理方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2044592A1 (en) * | 2006-07-12 | 2009-04-08 | Koninklijke Philips Electronics N.V. | A device and a method for playing audio-video content |
JP2008158788A (ja) * | 2006-12-22 | 2008-07-10 | Fujifilm Corp | 情報処理装置および情報処理方法 |
JP2009105591A (ja) * | 2007-10-23 | 2009-05-14 | Iidesu Solution:Kk | 動画配信システム |
US8194037B2 (en) * | 2007-12-14 | 2012-06-05 | Apple Inc. | Centering a 3D remote controller in a media system |
JP5528008B2 (ja) * | 2008-07-17 | 2014-06-25 | キヤノン株式会社 | 再生装置及び再生方法 |
JP2012029019A (ja) * | 2010-07-23 | 2012-02-09 | Hitachi Consumer Electronics Co Ltd | コンテンツ再生装置 |
KR101404251B1 (ko) * | 2010-09-10 | 2014-06-09 | 한국전자통신연구원 | 컨텐츠의 부가서비스 정보를 보조 단말기에 표시하는 시스템 및 방법 |
JP5539165B2 (ja) * | 2010-11-16 | 2014-07-02 | 日立コンシューマエレクトロニクス株式会社 | コンテンツ配信装置、コンテンツ再生装置及びコンテンツ再生システム |
-
2013
- 2013-04-24 CN CN201380029785.9A patent/CN104380717B/zh active Active
- 2013-04-24 JP JP2014521001A patent/JP6128123B2/ja active Active
- 2013-04-24 BR BR112014030582A patent/BR112014030582A2/pt not_active IP Right Cessation
- 2013-04-24 EP EP13804985.3A patent/EP2860968B1/en active Active
- 2013-04-24 US US14/405,934 patent/US9837121B2/en active Active
- 2013-04-24 WO PCT/JP2013/061997 patent/WO2013187131A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010055624A1 (ja) * | 2008-11-13 | 2010-05-20 | 三菱電機株式会社 | 再生装置及び再生方法 |
JP2011187001A (ja) * | 2010-03-11 | 2011-09-22 | Nec Corp | 案内情報提供装置、案内情報提供方法、案内情報提供プログラム |
JP2012058838A (ja) | 2010-09-06 | 2012-03-22 | Sony Corp | 画像処理装置、プログラム及び画像処理方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP2860968A4 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016099638A (ja) * | 2014-11-18 | 2016-05-30 | セイコーエプソン株式会社 | 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム |
US10664975B2 (en) | 2014-11-18 | 2020-05-26 | Seiko Epson Corporation | Image processing apparatus, control method for image processing apparatus, and computer program for generating a virtual image corresponding to a moving target |
US11176681B2 (en) | 2014-11-18 | 2021-11-16 | Seiko Epson Corporation | Image processing apparatus, control method for image processing apparatus, and computer program |
JP2016139375A (ja) * | 2015-01-29 | 2016-08-04 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
JP2016139368A (ja) * | 2015-01-29 | 2016-08-04 | コニカミノルタ株式会社 | Ar装置、ar実現方法、およびコンピュータプログラム |
JP2016218594A (ja) * | 2015-05-18 | 2016-12-22 | セイコーエプソン株式会社 | 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム |
JP2020065135A (ja) * | 2018-10-16 | 2020-04-23 | 株式会社Nttぷらら | 情報処理装置、情報処理システム、情報処理方法及びコンピュータプログラム |
JP7170495B2 (ja) | 2018-10-16 | 2022-11-14 | 株式会社Nttドコモ | 情報処理装置、情報処理システム、情報処理方法及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2013187131A1 (ja) | 2016-02-04 |
US20150117831A1 (en) | 2015-04-30 |
JP6128123B2 (ja) | 2017-05-17 |
BR112014030582A2 (pt) | 2017-08-08 |
CN104380717A (zh) | 2015-02-25 |
EP2860968A4 (en) | 2015-12-02 |
CN104380717B (zh) | 2018-08-03 |
US9837121B2 (en) | 2017-12-05 |
EP2860968A1 (en) | 2015-04-15 |
EP2860968B1 (en) | 2020-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6128123B2 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
CN108900902B (zh) | 确定视频背景音乐的方法、装置、终端设备及存储介质 | |
CN105828201B (zh) | 视频处理方法及装置 | |
US10652421B2 (en) | Apparatus and method for capturing image with audio data | |
JP5506324B2 (ja) | 類似画像検索システム、および、類似画像検索方法 | |
WO2018095252A1 (zh) | 视频录制方法及装置 | |
JP7441926B2 (ja) | 映像コーディングを行うコンピュータプログラム | |
TWI588590B (zh) | 影像產生系統及影像產生方法 | |
US9325776B2 (en) | Mixed media communication | |
JP2024513640A (ja) | 仮想対象のアクション処理方法およびその装置、コンピュータプログラム | |
TW201631960A (zh) | 擴增實境式串流影音顯示系統、其方法、電腦可讀取記錄媒體及電腦程式產品 | |
JP2014209707A (ja) | 映像再生装置および映像再生方法 | |
JP6214762B2 (ja) | 画像検索システム、検索画面表示方法 | |
JP2016036106A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2014204411A (ja) | 会議記録システム、会議記録装置、会議記録再生方法およびコンピュータプログラム | |
WO2020028107A1 (en) | Tagging an image with audio-related metadata | |
CN115988154A (zh) | 录像方法、装置及电子设备 | |
KR102066857B1 (ko) | 객체 영상 트랙킹 스트리밍 시스템 및 이를 이용한 스트리밍 방법 | |
JP5325012B2 (ja) | 歌唱者画像撮影機能を有するカラオケシステム | |
CN106454451B (zh) | 多媒体播放控制方法及装置 | |
JP2020129763A (ja) | 動画再生装置、動画再生方法及びプログラム | |
KR20150041548A (ko) | 증강 현실을 제공하는 방법 및 컴퓨팅 디바이스 | |
WO2017026387A1 (ja) | 映像処理装置、映像処理方法および記録媒体 | |
KR101562901B1 (ko) | 대화 지원 서비스 제공 시스템 및 방법 | |
TW201739262A (zh) | 影音自動處理系統及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13804985 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2014521001 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2013804985 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 2014149159 Country of ref document: RU Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14405934 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
REG | Reference to national code |
Ref country code: BR Ref legal event code: B01A Ref document number: 112014030582 Country of ref document: BR |
|
ENP | Entry into the national phase |
Ref document number: 112014030582 Country of ref document: BR Kind code of ref document: A2 Effective date: 20141205 |