WO2022053399A1 - Prüfung eines filmvorprodukts - Google Patents

Prüfung eines filmvorprodukts Download PDF

Info

Publication number
WO2022053399A1
WO2022053399A1 PCT/EP2021/074311 EP2021074311W WO2022053399A1 WO 2022053399 A1 WO2022053399 A1 WO 2022053399A1 EP 2021074311 W EP2021074311 W EP 2021074311W WO 2022053399 A1 WO2022053399 A1 WO 2022053399A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
film product
test
fvp
preliminary film
Prior art date
Application number
PCT/EP2021/074311
Other languages
English (en)
French (fr)
Inventor
Matthias Rosenberger
Original Assignee
Imagine AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Imagine AG filed Critical Imagine AG
Priority to AU2021340180A priority Critical patent/AU2021340180A1/en
Priority to US18/041,676 priority patent/US20230297925A1/en
Priority to EP21772776.7A priority patent/EP4211629A1/de
Publication of WO2022053399A1 publication Critical patent/WO2022053399A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey

Definitions

  • the invention relates to a method for testing a film precursor.
  • the invention also relates to a method for correcting a film precursor.
  • a preliminary film product checking device is also an object of the invention, as is a preliminary film product correction device.
  • a film goes through various stages of development during its production. For example, as part of the development process, a synopsis is first created that provides an initial overview of the film's subject matter. Later, a so-called treatment is developed, which can be seen as a preliminary form of a screenplay. A treatment should convey the complete, dramaturgically coherent story of a film, but without containing fully formulated scenes with complete dialogue, as is the case with a complete screenplay. Finally, the actual screenplay is created. After that, film recordings of individual scenes are shot.
  • This object is achieved by a method for checking a preliminary film product according to claim 1 , a method for correcting a preliminary film product according to patent claim 11 , a preliminary film product checking device according to claim 14 and a preliminary film product correction device according to claim 15 .
  • the preliminary film product is first made available to a selected group of test persons, i. H. made available or presented.
  • the presentation can include a visual display, a representation of text, a film or an audio reproduction, as well as any combination of the aforementioned types of presentation.
  • the presentation preferably takes place using a technical system, such as a personal computer, a laptop, a notebook, a tablet or a smartphone.
  • a preliminary film product is an intermediate result generated during the film production process, which provides an overview of the action and other aspects of the end product before the film production is completed or before the end product of the film production is created.
  • the preliminary film product represents information generated beforehand, for example a summary, with regard to the respective film product.
  • the film product itself is then produced in the film production process after the preliminary film product.
  • the film product itself is the end product of the film production, usually the finished film.
  • the preliminary film product is divided into individual sections for a finer resolution assessment or examination. If the preliminary film product includes, for example, a rough textual summary of the action of a film product, which is read or read to the test person, the text can be divided into individual chapters or scenes, paragraphs and sentences or half-sentences. If the preliminary film product is a film, the film can be divided into individual scenes or moments as sections, for example.
  • the individual sections of the preliminary film product are first received by the test persons and, at the same time or immediately afterwards, the test persons generate a number of different reaction signals, which preferably have information about their conscious or unconscious reactions to the sections of the preliminary film product received .
  • section-related reaction signals are then recorded, for example with the help of sensors.
  • the detection can take place through an input process by the test person, in which a physical signal generated by a conscious input action of the test person is detected by a user interface.
  • the detection can also be implemented by sensor-based measurement of a preferably unconscious physiological reaction of the test person. This fact will be explained later in detail.
  • the "division" of the preliminary film product into the individual sections of the preliminary film product can preferably take place before a presentation of the preliminary film product, i.e. the work is preferably divided into predetermined "content-related sections" as mentioned above, which are dependent on the content of the Depend on the factory, such as chapters, scenes, etc.
  • the division can also take place directly when the preliminary film product is created or can already be specified by a product from a previous production stage.
  • the sections can also simply be defined in terms of time and/or quantity (or based on time and/or quantity), e.g. B.
  • Each section includes a certain amount of time that is required for the presentation or reception (at least estimated) or a certain extent (for example a certain amount of text, in particular one line).
  • Different distribution methods can also be used in combination, e.g. B. a division into content-related sections and a further time-related and / or quantity-related subdivision or a parallel application of both methods.
  • the most advantageous variant may depend on the type of Pre-film product and the type of presentation depend. In the following, it is assumed as a preferred example, without restricting the generality, that initially (at least also) there is a division into content-related sections, unless otherwise mentioned.
  • the sections or their boundaries can also be marked in a suitable manner.
  • the complete preliminary film can be presented to the test persons section by section, with possible pauses in between to record the reaction signals.
  • the entire preliminary film product can also be presented together and the respectively recorded reaction signals are assigned to the section presented in connection with it (e.g. at the same time).
  • a “division” into sections can also be used, e.g. B. automatically, during the presentation of the preliminary film or the reception by the test persons, especially when it comes to a temporal or quantitative distribution.
  • a further, more refined subdivision of the sections into subsections is also possible in the method.
  • evaluation result data are now generated, which include information regarding the subjective quality of individual sections of the preliminary film product and thus also the film product that is still to be produced later.
  • a statement about the chances of success of a film can be made at an early stage, thus reducing the unnecessary use of resources in a production.
  • the evaluation can be carried out, for example, on the basis of a model relationship between possible reactions of the test persons and individual influencing variables that are related to the later success of a film product.
  • the evaluation can also be implemented using AI-based techniques. For example, on the basis of training data, a so-called deep learning algorithm can be used to generate or train a neural network, which determines the desired result data using the detected reaction signals. A specific example of this will be explained later. This variant can be adapted particularly flexibly to the properties of different test groups and test requirements.
  • the evaluation can also be carried out in part with the involvement of experts. For example, one or more experts can evaluate the texts or verbal reactions of the test persons, while non-verbal reactions are automatically evaluated.
  • an overall test result of the preliminary film product can also be determined depending on the evaluation result data in order to provide the people involved in the film production with a simplified decision-making aid.
  • the overall result provides information about the chances of success and the quality of individual passages and the film as a whole.
  • the overall result consists of a combination of ratings from a large number of test subjects and, with a sufficiently large number of test subjects, enables an approximately objective assessment (generated by subjective individual assessments) of the prospects of success of a film in the production process.
  • both the assessment process and the evaluation process are automated as far as possible or even completely by technical means, so that a relationship between experts for the preparation of an expert opinion with regard to the prospect of success can be avoided and the costs expended for this can be saved.
  • the method according to the invention for checking a preliminary film product is first carried out and then the next version of the preliminary film product is generated depending on the evaluation result data of the method carried out.
  • the production process of a film can advantageously include one or more correction phases in which a largely or completely automated correction of intermediate stages or final stages of a film production takes place.
  • the correction takes place on a broad database and is thus more objective than a correction based on the opinion of individual experts, which contributes to improved prospects of success for the film product produced.
  • the preliminary film product testing device has a playback unit for providing a preliminary film product for a selected group of test persons.
  • Part of the preliminary film product testing device according to the invention can also be a structuring unit for dividing the preliminary film product into individual sections for a finer resolution assessment or testing, e.g. B. to subdivide the preliminary film product into predetermined, in particular content-related, sections.
  • the text is then z. B. divided into individual chapters or scenes, paragraphs and sentences or clauses. If the preliminary film product is a film, the film is z. B. divided into individual scenes or moments as sections.
  • the preliminary film product can be divided into suitable sections during creation and z. B. be provided with appropriate section markers.
  • the film precursor testing device also has a detection unit for capturing reaction signals from test persons in sections during or at the same time as or immediately following the reception of the film precursor by the test persons.
  • Sectional detection means in particular that the individual reaction signals are unambiguously assigned to a specific section, so that a finely resolved examination and assessment of the preliminary film product is possible. It could, especially if the division z. B. should only take place during the presentation, the division or division into sections also by the acquisition unit and / or the playback unit or any other unit, especially if a time-based and / or quantity-based division is to take place.
  • reaction signals are based on the reactions and/or assessments of the test persons and are available as physically measurable signals.
  • Part of the preliminary film product testing device is also an evaluation data determination unit which is set up to automatically evaluate the recorded reaction signals in order to generate evaluation result data for the individual sections on the basis of the recorded reactions and/or assessments of the test persons.
  • the evaluation data determination unit also called an evaluation unit, can have further units, for example a text analysis unit, with which text entries are analyzed for their meaning and a quantitative evaluation variable is generated based on the meaning.
  • the preliminary film product testing device can optionally also include a result determination unit for determining an overall test result of the preliminary film product as a function of the evaluation result data.
  • the film precursor testing device shares the advantages of the method according to the invention for testing a film precursor.
  • the preliminary film product correction device has the preliminary film product checking device according to the invention and a correction unit for changing the preliminary film product depending on the evaluation results of the preliminary film product checking device according to the invention.
  • the correction unit can be set up to eliminate a section in the preliminary film product that is assessed as having little prospect of success.
  • the correction unit can, for example, accept input from a person involved in the film production to change a section or partial section of the preliminary film product.
  • the precursor film correction device according to the invention shares the advantages of the inventive method for correcting a precursor film.
  • Parts of the preliminary film product checking device according to the invention and of the preliminary film product correction device can be designed for the most part in the form of software components.
  • the reproduction unit the structuring unit, the acquisition unit, the evaluation data determination unit and the result determination unit as well as the correction unit.
  • these components can also be partially implemented in the form of software-supported hardware, for example FPGAs, PLDs or the like, particularly when particularly fast calculations are involved.
  • the interfaces required for example when it is only a matter of taking over data from other software components, can be designed as software interfaces. However, they can also be in the form of hardware interfaces that are controlled by suitable software.
  • a partial software implementation has the advantage that computer systems and networks already used in film production can be retrofitted in a simple manner by means of a software update in order to work in the manner according to the invention.
  • the object is also achieved by a corresponding computer program product with a computer program which can be loaded directly into a memory device of such a computer system, with program sections in order to carry out all the steps of the method for checking a preliminary film product or the method for correcting a preliminary film product if the computer program in running on the computer system.
  • such a computer program product may also include additional components such as documentation and/or additional components, including hardware components such as hardware keys (dongles, etc.) for using the software.
  • additional components such as documentation and/or additional components, including hardware components such as hardware keys (dongles, etc.) for using the software.
  • a computer-readable medium for example a memory stick, a hard disk or another transportable or permanently installed data medium, on which the program sections of the computer program that can be read and executed by a computer unit are stored, can be used for transport to the memory device of the computer system and/or for storage on the computer system .
  • the computer unit can, for example, have one or more microprocessors or the like working together.
  • the computer program can also be transmitted and the data stored via the Internet or a cloud-based solution.
  • Such a computer program product can preferably be in the form of a modular software solution which can be expanded to include hardware components.
  • the software comprises a server program which runs on a computer, e.g. B. a film production company, or stored in the cloud.
  • the software also includes an app, which is stored on the so-called client devices, preferably end devices such as smartphones, of the test persons. If a film pre-product is now to be tested using the method according to the invention, then using of the server program transmits the preliminary film product to the clients, for example the smartphones of the test subjects. With the help of the app, the test persons can now watch or listen to the preliminary film and generate reactions with corresponding status signals and assessments with corresponding input signals.
  • the app has program parts that are used to control sensors on the client or smartphone to record reactions and assessments.
  • the app may provide scroll tracking capability.
  • the app uses a camera to record eye movements or the color of the test person's skin.
  • a camera integrated into a client, for example a smartphone, of the test person can be used as a camera for recording the physiology of a test person.
  • the app can also include the ability to measure reading speed, for example based on eye movements or scrolling speed or scrolling behavior.
  • the app can have the ability to assign measurement times and/or input times to the recorded reactions and/or assessments.
  • the app preferably converts the recorded signals into measured values or input texts.
  • the server program accepts the measured values and input texts determined by the app as part of the assessments and reactions of the test subjects and carries out an evaluation based on the information transmitted in order to generate evaluation result data for the individual sections of the preview. During the evaluation, the reactions and assessments generated by the individual test persons are combined to form an evaluation result for the individual sections.
  • the server program also performs further processing steps, such as determining an overall test result and correcting the preliminary film product in order to improve the film production's chances of success. Further particularly advantageous configurations and developments of the invention result from the dependent claims and the following description, whereby the patent claims of a specific category can also be developed according to the dependent claims of another category and features of different exemplary embodiments can be combined to form new exemplary embodiments.
  • the reaction signals recorded as part of the method for checking a film precursor can include input signals or status sensor signals.
  • An input signal should be understood as a signal that is consciously transmitted by a test person via an interface.
  • the input signal includes information that is consciously generated and transmitted by the test person.
  • state sensor signals are generated by sensors that measure the state, in particular a physiological or biometric state, of a test person.
  • the status sensor signals thus include information that can be evaluated in order to determine information about the emotions and the unconscious attitude of the test person towards the preliminary film product.
  • Responses and/or assessments can be generated, for example, by a test subject through conscious input via a user interface.
  • a test person presses an input key or uses a pointing device to directly or indirectly touch an evaluation field on an image display device provided for such an input.
  • Such a device can, for example, comprise a touchscreen, a touchpad or the like. Conscious inputs have the advantage that they are very differentiated and can be used directly, and the information generated with them can therefore be easily evaluated.
  • a status sensor signal is particularly suitable for capturing biometric or physiological data that is generated unconsciously by a test subject, for example.
  • Unconscious reactions can become noticeable through physiological phenomena or other involuntary movements or changes in physical conditions, such as a change in body temperature, skin color, sweat production, blood pressure or heart rate.
  • Phenomena of this type can be detected by a sensor-based measurement of biometric and/or physiological data of the test persons.
  • the advantage of measuring unconscious reactions is that they can hardly be intentionally influenced by the test person and are therefore authentic and cannot be easily manipulated.
  • the test person does not have to cooperate when recording unconscious reactions or reaction signals based thereon, which is particularly advantageous for children as test persons.
  • the choice of film consumption is largely determined by emotional aspects, which can possibly be more authentically and precisely ascertained on the basis of involuntary reactions than with the help of detailed and well-thought-out conscious assessments.
  • reaction signals can be assigned to a subsection of a section.
  • a subsection can, for example, contain several sentences or exactly one sentence or half-sentence of a text or dialogue or, in the case of a film, a scene or dialogue sequence, or a specific period of time, e.g. B. include a second.
  • Sub-sections can (like the sections themselves) be selected based on content, duration and/or quantity.
  • reaction signals preferably based on unconscious and conscious reactions and/or assessments
  • a consistency check can be carried out using these different information sources if, as described above, they can be assigned to one and the same subsection and are therefore indirectly related to one another.
  • At least one unconsciously generated reaction signal is preferably taken into account in the consistency check.
  • This consistency check is carried out in particular between consciously and unconsciously generated evaluation data.
  • Such a consistency check makes it possible to check the quality and realism of the reactions and/or assessments. For example, it can happen that a test person would like to collect a fee for the test, but does not feel like doing the actual test process and therefore carries out the test inattentively and without interest. That of this one
  • the test result generated by the person may be worthless due to that person's disinterest or even negatively affect the reliability of the overall result if the test subject enters arbitrary ratings or intentionally false ratings.
  • reaction signals generated by unconscious behavior which include physiological or biometric data, for example, are recorded and these contradict conscious reactions recorded at the same time or related to the same product sections, it can be concluded that the test person was not involved and therefore their test result is better is not taken into account.
  • the respondent may also be distracted during the test, such that the respondent may fail to provide a usable response or assessment only at times, for example, when receiving a single section or a few sections of the preview.
  • Such a temporary failure or disruptive effect can also be detected with the help of a consistency check.
  • the assessment of the sections in question can be neglected in an overall assessment, while sections that were received by the test person without distraction, or their assessment, are included in the final result. In this way, a partial usability of a test process can also be precisely identified and taken into account in the evaluation.
  • the preliminary film product includes at least one of the following types of reproduction:
  • a text reproduction allows a test person to also capture details of the preliminary overview at individual reading speed and to quickly submit an intuitive as well as a detailed and well-considered, purely subjective, evaluation.
  • this type of reproduction is particularly suitable for an early phase of film production, in which a preliminary film product is usually only available in the form of a written summary, such as a synopsis, a treatment or a screenplay.
  • An audio version of a film for example in the form of an audio book or text-to-speech playback, enables a particularly time-saving reception of a film material, whereby the test person can also pursue a parallel job at the same time.
  • the test subject can simultaneously be traveling on a train, doing endurance sports, or doing household chores, such as cleaning, ironing, or cooking, so that he or she does not have to sacrifice valuable time exclusively for the testing process of the film. Since in this variant the test person is at least temporarily likely to be distracted by their main activity, the consistency check described can be used particularly advantageously here to check whether the test person is currently distracted or is paying enough attention.
  • a film presentation enables a scenario comparable to the end product when played back or received by the test person, so that the test person’s reaction signals and the evaluation results based on them are more realistic and reliable than when playing a text or audio version .
  • Such a film representation can, for example, include dialogues and noises or music stored in a graphic storyboard.
  • the film representation can also be realized by an animated film created using a game engine.
  • the film representation can also include a rough cut version of the film.
  • an input request signal a so-called prompt signal
  • a field with a gradual color gradient or multiple color bars can be displayed.
  • the color bars can be displayed on a screen at the end of each section and can be selected by the user, i.e. the subject, using a pointing device such as a mouse.
  • Such a section can include, for example, text, an audio excerpt, a graphic, in particular a moving graphic or a film sequence or combinations thereof, which reproduce dialogues and/or an action.
  • text In the case of text, it typically has a plurality of lines to about one or two pages of text with no page breaks between pages. From a certain minimum length, the text can be displayed as scrollable text, so that the reader can work his way to the end of the text of the section without having to turn the pages.
  • the reader or recipient switches to the next section with an input, such as a click.
  • an input prompt is displayed with a button that has a gradual color gradient or several differently colored buttons.
  • buttons can also include other distinguishing features such as different textures, symbols or the like.
  • the user can both switch to the next section with a single click and at the same time submit a rating by selecting the colored area at a point with a specific color or, in the case of a representation of discrete differently colored or textured buttons, selecting one of these and thus giving an evaluation of the section that has just been read or received.
  • a specific color or texture is linked to a specific value of an evaluation. Only when the user or test person has made their choice, for example by clicking, is the next section automatically displayed, so that the test person can evaluate each individual section.
  • the test person is shown a button with only three colors, for example green, yellow and red.
  • Green means e.g. E.g. that the respondent liked the section, yellow means that the section can still be improved or was not fully understood, and red means that the respondent did not like the section.
  • a button for the evaluation can be displayed with a continuous color gradient, for example using the three colors mentioned.
  • the test person can then click on any area and in this way give a finely graded rating. For example, any rating between 0% agreement and 100% agreement can be given for a section.
  • a text field in which a free text comment can be entered can be displayed to the test person in response to a predetermined input signal, for example a long click.
  • the two different types of assessment can also be combined with each other.
  • the input signal can also be included in the evaluation as a reaction signal. This means that the test person making a comment at all means that a section is particularly important to them.
  • the content of the text can also be evaluated for an evaluation.
  • individual sentences or half-sentences of a section can also be marked, in particular marked in color or with a texture, in order to evaluate them.
  • a field for an overall assessment of the preview by graph representation may also be displayed in the prompt embodied by a prompt signal.
  • a test person creates a graphic curve that illustrates an approval value as a function of the current position in the text or the film location, for example as a function of a section number and a line number, a time specification or a key scene.
  • the agreement value can vary from 0% agreement to 100% agreement, for example, so that a very differentiated evaluation is possible.
  • an acoustic interface can also be implemented for an evaluation carried out by voice input.
  • z. B. also initially an acoustic prompt signal can be generated.
  • An evaluation made by voice input can include an oral specification of a scale value and/or a free text comment.
  • a stop command can also be given, for example, by the test person using a keyword, which is recognized with the aid of speech recognition. The acoustic performance is then stopped and the test person has the opportunity to evaluate the sentence or half-sentence just heard.
  • a free text comment can then optionally be added to give a producer or author additional valuable information for improving the section or passage. Specifying a scale value requires little time, while a free text comment can reflect specific individual impressions and reactions of a test person.
  • a condition sensor signal that includes information related to an unconscious score may include a reading speed measurement, a scroll tracking score, a heart rate reading, or an eye movement.
  • a pulse value provides information about the state of arousal of a person.
  • a high pulse value can, for example, provide an indication that a test person finds a section currently being received very exciting.
  • a low heart rate indicates that the test person is bored at the reception.
  • an eye movement can also reflect an emotional sympathy of the test person.
  • a low reading speed tends to indicate a boring section
  • a high reading speed indicates that the subject is captivated by the content received.
  • the ratio of a currently measured reading speed to a test person's normal speed is particularly relevant here. If a reading speed is significantly lower than the normal or average speed of the person concerned, this can also indicate a text that is difficult to understand. Accelerating the reading process, on the other hand, suggests an exciting passage, while slowing down the flow of reading suggests a boring passage. It cannot be ruled out that the deductions from the behavior of the test person could also be contrary to the previous description.
  • a relation between the reading behavior of the test person or the target group, the the test person belongs to, and the interest of the test person or the target group can be determined.
  • the relationships determined during the training process for example using a larger number of test films or test scripts, can be stored as labeled training data.
  • a neural network or another system with artificial intelligence can be generated with the labeled training data.
  • the labeled training data has a number of measured variables, such as the reading speed and a braking or acceleration value of the reading behavior.
  • the labeled training data have parameter values for individual emotions or mental states, such as values for boredom, interest, understanding, etc., as output vectors. If the time required for the test person is to be kept low, input signals and state sensor signals recorded during the actual test can also be evaluated and, so to speak, in real time to determine the sought-after connection between the reading speed or the reading behavior and an implicit evaluation of the test person, preferably again with the help of a neural network or another system with artificial intelligence (abbreviated to Kl) can be used. In this version, the training data is generated more or less during operation, so that the neural network or the AI system is constantly being improved over the course of a test process.
  • Kl artificial intelligence
  • slow scrolling can indicate a slow reading speed and faster scrolling can indicate an increased reading speed.
  • scrolling up to reread a paragraph or subparagraph may indicate interest in a text or a particular paragraph. It could also allow conclusions to be drawn about a passage that is difficult to understand.
  • the patterns mentioned can be correlated with evaluation variables with the aid of artificial intelligence. For example, values of measures of the subject's unconscious behavior are correlated to a scale of rating values.
  • the assessment values can represent, for example, a measure of interest, approval, perceived excitement or friendship, or the like.
  • the behavioral patterns of the test person or a target group can be determined in a training process and used for an input vector.
  • Such an input vector can include, for example, a scrolling speed and a scrolling direction as parameters.
  • Parameter values for the extent of interest, agreement, perceived tension and curiosity can be determined as an output vector for a neural network.
  • the test person explicitly states their emotions, for example, so that the training data can serve as a reference. After the neural network has been trained with the training data, it can then independently determine the emotions of a test person, the target group or a very specific test person.
  • individual sections (assigned to the preliminary film product) that have received an unfavorable rating according to a predefined rating scale are changed or sorted out in the step of creating the film product.
  • the evaluation scale can be z. B. be defined in advance with regard to the intended effects. So For example, a scene that induces too much fear may be rated as poor in a children's film, whereas in an adult horror film that effect would be the intended effect.
  • the preliminary film product and thus also the later film product can be adjusted on an objective basis without the time-consuming consultation of experts in a simple manner and without great effort, in order to improve the prospects of success with the target group.
  • the target group of a film product can also be determined more precisely, from which further optimizations can then be derived.
  • Changing a section can, for example, also include specifying a suitable viewing angle for imaging a section.
  • changes can also be made in the representation or pictorial recording of a scene in order to increase the attractiveness of a film segment for the target group.
  • the different ratings of a test person based on input signals and state sensor signals are combined to form an overall rating of an entire text (or any other type of preliminary film product).
  • the overall score may comprise a plot of one or more score curves versus time or position in the text (or any other type of precursor film).
  • the individual evaluation curves can be marked or colored differently, for example.
  • a single evaluation curve determined by a weighted combination, for example addition, of the different evaluations that have arisen can also be generated in the overall evaluation for a test person.
  • the overall assessment can then include assessment curves from a number of test persons, which are displayed “superimposed” in a common diagram. With this variant, contradictory user opinions can be presented clearly.
  • Test results from a potential test subject can also be compared to target group-specific reference values in order to determine whether a potential test subject should be selected for a future test or series of tests. If you want to weight the ratings of the different test subjects realistically, it is advantageous to know the quality of the ratings of the individual test subjects, what taste and affinity the test subjects have for individual genres of film art. With the latter criteria, the extent to which the test person differs from the target group is particularly relevant.
  • test person's rating will be given a correspondingly low weighting.
  • the quality of an assessment can be found out, for example, by an individual evaluation of an assessment by a test person from a number, for example 100, reference films.
  • the test person's ratings of the reference films can be compared, for example, with the ratings of the target group or one or more qualified evaluators.
  • the weighting of the evaluation of the test person then depends on the similarity of the evaluations of the test person and the evaluating persons or the target group.
  • the weighting can also be based on detailed text-based evaluations of the reference films by the test subjects.
  • experts for example producers, assess the quality of the detailed evaluations and can thus determine a weighting in a particularly well-founded manner, albeit with the corresponding additional effort.
  • FIG. 1 shows a flowchart which illustrates a method for checking a screenplay according to an embodiment of the invention
  • FIG. 2 shows a schematic representation of a visual evaluation of a screenplay according to an embodiment of the invention
  • FIG. 3 shows a schematic representation of a line-by-line evaluation of a screenplay according to an embodiment of the invention
  • Figure 4 shows an example diagram that quantifies the approval of a test person
  • Figure 5 shows an example diagram which illustrates a test person's reading speed
  • FIG. 6 shows a schematic representation of an evaluation of a screenplay based on an audio transmission
  • FIG. 7 shows a schematic representation of an evaluation of a film prototype
  • Figure 8 example graphs to illustrate the relationship between voltage values and physiological measurements
  • FIG. 9 shows an exemplary diagram to illustrate physiological variables measured on test persons during a screening of a preliminary film product
  • FIG. 10 shows a diagram with voltage values determined on the basis of the physiological variables shown in FIG. 9,
  • FIG. 11 shows a schematic representation of a preliminary film product testing device according to an exemplary embodiment of the invention
  • FIG. 12 shows a schematic representation of an evaluation device of a preliminary film product testing device according to an exemplary embodiment of the invention
  • FIG. 13 shows a schematic representation of input vectors and evaluation vectors for a Kl-based evaluation of a preliminary film product according to an exemplary embodiment of the invention
  • FIG. 14 shows a software kit for implementing the method according to the invention for testing a preliminary film product.
  • FIG. 1 shows a flow chart 100 which describes a method for correcting a preliminary film product.
  • a treatment T ie a short summary of a film plot
  • This summary is illustrated in Figure 1 Embodiment used as a film precursor FVP.
  • the content of the treatment T is displayed as text on a display unit, for example a computer screen.
  • Sections A of the summary are displayed separately to a plurality of test persons.
  • a section can, for example, comprise one screen page, but also more or less than one screen page.
  • the test person can move back and forth in the text by scrolling. i.e. the division of the preliminary film is done here in connection with the presentation of the text.
  • the subjects then perform an assessment B by inputting assessment information at step 1.111 after each reading of a section.
  • they control one of the control panels (shaded differently) shown in FIG. 2 at the bottom of the screen in order to provide an assessment of the quality of the section.
  • dotted hatching can mean that the section of the evaluating person is completely dissatisfied.
  • Hatching drawn with vertical dashes can mean that the section either needs improvement but contains usable approaches or that the section is not understandable (enough), and hatching drawn with horizontal dashes (see box 3c in FIG. 2) means that the evaluating test person likes the read section.
  • alternative markings can of course also be used for the individual control panels, such as different colors or the like.
  • Step 1.1V indicates that the two previous steps 1.11 and 1.111 are repeated until the text is finished. In other words, if the test person has not yet reached the end of the text, they return to step 1.11. If in step 1.1V the last section of the text has been evaluated, a transition is made to step 1.V.
  • an overall evaluation GA of the evaluations carried out by a plurality of test persons then takes place.
  • the weightings can be determined, for example, on the basis of a test phase that takes place in advance or a learning phase with the aid of a machine learning method.
  • a test person is given a plurality of test scripts for evaluation. It is then determined which before "Quality” has the rating.
  • the “quality” can be determined, for example, based on the later actual success of the film based on the test script. This means that if the test person's assessment agrees with an assessment of the actual audience, a high-quality assessment can be assumed. Further indications for a weighting are whether the test person has a similar taste to the target group or has a fundamentally positive attitude towards the topic of a film.
  • step 1.VI Based on the section-by-section evaluation of the summary, a concrete statement can now be made about individual sections of the later film product and its overall quality in step 1.VI. In this way, the chances of success of the film product can already be estimated in an early phase of film production and in this way the risk of an unnecessary use of resources in film production can be reduced. Furthermore, in step 1.VI, corrective measures are carried out on the basis of the evaluation results in order to improve the preliminary film product and thus the chances of success of the later film product.
  • FIG. 2 shows a schematic representation of a visual evaluation of a screenplay according to an exemplary embodiment of the invention.
  • a screen 1 is shown on which a portion of text of a synopsis of a film having a plurality of lines 2 is displayed.
  • An evaluating test person reads the section and then uses a mouse to select one of the three differently colored fields 3a, 3b, 3c in a rectangular evaluation field 3 displayed at the lower edge of the screen in order to give an evaluation of the read section.
  • the different colors of the individual fields 3a, 3b, 3c are symbolized by different textures.
  • the next section is then automatically displayed, which the assessing test person reads through again. After reading the next section, she gives a rating again, and so on.
  • FIG. 3 shows a schematic representation of a line-by-line evaluation of a screenplay according to an exemplary embodiment of the invention. Similar to the exemplary embodiment shown in FIG. 2, a section of a summary of a preliminary form of a screenplay with a plurality of lines 2, 2a, 2b is displayed on a screen 1. In contrast to the exemplary embodiment shown in FIG. 2, in the exemplary embodiment shown in FIG. 3, individual lines 2a, 2b are selected and evaluated using a colored marking. For example, the third row 2a was made with a color, which is symbolized by a dotted area 4a in FIG. 3, and thus given an average rating, which means that the content already shows promising approaches, but still needs improvement.
  • a fifth row 2b is marked with a white color bar 4b, which means that the evaluating person likes this row very much.
  • a summary can be evaluated very finely or very localized by further subdividing the sections into subsections (namely here in individual lines), so that the authors receive very precise feedback and can make local corrections more effectively Screenplay can make than with a section-by-section evaluation (without further subdivision into sections), as was realized in the embodiment shown in Figure 2.
  • FIG. 4 shows a diagram 5 which represents an evaluation curve 5a.
  • a value G is represented as a function of a line index z, which specifies a line number of a section or subsection.
  • the G value represents the extent to which a rater liked a section A, subsection or sentence. After or while reading the section or after or while reading an entire text, the evaluator draws a curve that gives information about which subsections of the sections they liked better or worse.
  • the value G can be entered, for example, on a tablet using a light pen or by touching a screen of the tablet designed as a touchscreen with a user finger in an evaluation field displayed on the screen of the tablet for the evaluation.
  • FIG. 5 shows a graph 6 whose curve 6a, unlike curve 5a shown in FIG. 4, was recorded automatically while reading through a script.
  • a reading speed V of a reader is determined as a function of the line or line number z. This reading speed can be determined, for example, on the basis of a time interval between the ratings of the individual sections or lines. It can also be determined using a scrolling speed of the evaluating person.
  • an average reading speed Vm of the assessing test person can be determined in advance using test material. In the sections or lines z in which the test person's reading speed v exceeds their average speed Vm, it can be assumed that the reader particularly likes these sections or that the reader finds these sections particularly exciting.
  • an evaluation factor can be determined which indicates the degree of agreement of the reader with a part of a section.
  • an automated evaluation is obtained, which can be carried out, for example, in addition to an active evaluation, as illustrated in FIG. 2 to FIG. 4, or can also be used as an alternative if the reader does not actively cooperate should be charged.
  • This graph can also be created automatically through click evaluations.
  • test person 8 can now make acoustic evaluations of individual sections through corresponding verbal inputs.
  • the playback device 9 can have a text-to-speech-to-text module, which can convert speech into text and vice versa. If the text is now read out, the user is asked for verbal feedback at the end of each section. For example, test person 8 gives a value on a scale from 0 to 10. After the spoken number has been delivered, the system skips to reading the next section. Similarly, an oral command to stop after a single sentence can also be given, so that individual sentences that have just been heard can also be evaluated.
  • a spoken free text comment can be recorded at the end of a paragraph or an individual sentence, with which the respective paragraph or individual sentence is evaluated.
  • FIG. 6 also shows a button 41 which the test person can press for a conscious evaluation.
  • the test person wears a pulse sensor 42 on his arm, with which status sensor data ZS are obtained, which represent information for an unconscious evaluation.
  • the status sensor data ZS and the deliberate evaluation data E are transmitted to a preliminary film product testing device 20 (see FIG 8 for details), which carries out an evaluation on the basis of the recorded data E, ZS and also controls the playback device 9 with the aid of control signals S in order to start playback with to synchronize the evaluation action of the test person.
  • FIG. 7 shows a schematic representation of a display device 10 of a preliminary film product testing device for a film prototype.
  • the film prototype is displayed on a screen 10a of the display device 10 of the evaluating subject (not shown) demonstrated.
  • An acoustic reproduction takes place through two loudspeakers 10b arranged on the sides of the screen 10a.
  • the evaluating test person looks at a scene 11 and selects a colored sub-field 3a, 3b, 3c or one shown hatched in FIG. This evaluation can also be initiated via an external input unit.
  • an acoustic evaluation similar to the exemplary embodiment shown in FIG. 6 is also possible.
  • reactions of the assessing test person are captured in images.
  • the recorded eye movements are included in the evaluation of the film prototype. For example, based on the speed of an eye movement, a state of tension of the assessing test person can be determined and in this way the effect of the film on the assessing test person can be determined.
  • the heart rate of the assessing test person can also be measured here while the film prototype is being played and, based on the pulse frequency, it can be concluded how exciting the assessing test person thinks a film scene is.
  • Other measured values can include body temperature and skin moisture, which can be measured, for example, via the electrical resistance of the skin.
  • the measurements of the physiology of the evaluating subject can be evaluated, for example, by comparison with reference values.
  • the evaluating test person is shown reference films in advance, the scenes of which the person explicitly evaluates.
  • the physiological variables such as eye movement, pulse rate, body temperature and skin moisture are measured and related to the person's subjective assessment of the scenes.
  • a mathematical connection between the perceived tension and the recorded physiological parameters of the test person can be determined, which can then be used for the evaluation of a film prototype.
  • the different test variables and associated partial results are combined again to form an overall assessment result.
  • Such a combination can include, for example, a weighted addition of the individual evaluation variables.
  • FIGS Represent a person, illustrate with physiological measurements.
  • physiological measured values such as eye movement Fa, pulse frequency Fp and body temperature Tk
  • ESR ESR of a tension sensation in a diagram.
  • the values given are only exemplary and are not intended to have any limiting meaning.
  • ESR reference values can, for example, be recorded once for each test person and stored in a database.
  • FIG. 9 the measured values of the above-mentioned physiological variables of eye movement Fa, pulse frequency Fp and body temperature Tk of a test person are shown graphically in a graph as a function of a line number Z.
  • the measured values Fa, Fp, Tk shown in FIG. 9 are now measured in front of a test person during a presentation of a preliminary film product.
  • FIG. 11 shows a schematic representation of a preliminary film product testing device 20 according to an exemplary embodiment of the invention.
  • the preliminary film product checking device 20 is connected to a display device 10 .
  • the display device 10 includes a screen (see FIGS. 2, 3) with which a preliminary film product can be displayed for a selected group of test subjects and which has a touchscreen function in order to receive inputs E from a test subject.
  • the preliminary film product checking device 20 has a structuring unit 21 for dividing the preliminary film product into individual sections. Structuring signals S are transmitted from the structuring unit 21 to the display device 10 in order to structure the displayed preliminary film product into individual sections.
  • Part of the preliminary film product testing device 20 is also a detection unit 22 for partially detecting reactions and/or assessments of the test persons during the reception of the preliminary film product by the test persons.
  • the detection unit 22 thus receives input signals E from the display device 10 and status sensor signals ZS from status sensors (not shown), which contain the status information about the test person already mentioned to capture.
  • the input signals E and status sensor signals ZS recorded by the detection unit 22, which include information about the reactions and assessments of the test person, are evaluated by an evaluation unit 23, with an evaluation B of the individual sections being carried out on the basis of the recorded reactions and/or assessments of the test persons 8.
  • the evaluation data B are transmitted to an overall evaluation unit 23a, which is also part of the preliminary film product testing device 20 in the exemplary embodiment shown.
  • the overall evaluation unit 23a generates an overall result through a weighted combination of the individual evaluations B.
  • the weighting can be based on consistency values, for example, which were also included in the calculation of the evaluations and can be part of the evaluation results B and allow a statement to be made as to whether the unconscious Evaluations ZS and the conscious inputs E of a test person are consistent. The more consistent this rating information is, the more heavily an individual rating can be weighted.
  • Other influencing factors can also be included in the weighting, such as a value for the test person's competence or the similarity of the test person's views with a target group.
  • Part of the preliminary film product testing device 20 is also a control unit 43 in order to communicate with the individual units 21, 22, 23, 23a of the preliminary film product testing device 20 and to control them.
  • the overall assessment result is transmitted to a correction unit 24, which is used to modify the preliminary film product depending on the assessment.
  • FIG. 12 shows an evaluation unit 23 of a preliminary film product testing device according to an exemplary embodiment of the invention, as shown in FIG. 11, for example.
  • the evaluation unit 23 has a data input interface 25 with which physiological measured values ZS and input signals E are received.
  • the K1 evaluation unit 26 has a neural network unit 27 which, based on an input vector V1 of the physiological measured values ZS and the input signals E, determines an evaluation vector B which includes information about an evaluation of a preliminary film product.
  • the input vector V1 of the measurements includes a large number of measured values, such as the reading speed V, the heart rate P, the skin color H, skin moisture HF, the speed V of eye movements, the scrolling speed VS, a spectrum S of the acoustic utterances of a test subject, etc.
  • Such an input vector V1 is shown in FIG.
  • the evaluation vector B which is also shown in FIG. 13, includes, for example, values for the individual sections A1 . . . A100 or line sections on a scale from 1 to 10, with 1 standing for very negative and 10 for excellent.
  • the AI evaluation unit 26 has a database
  • the neural network for the neural network unit 27 is trained with the aid of the training unit 29 .
  • labeled training data can be used. These include reference data from pairs of input vectors V1 and evaluation vectors B, which e.g. B. were also generated using the test persons or the target group based on test films or corresponding film pre-products.
  • the structures of the neural network, such as connections and weights, are then modified such that an associated score vector B of the reference data is generated by the neural network in response to an input vector of the reference data.
  • the trained neural network is then used by the neural network unit 27, for example, to evaluate the measurement vector of emotional measurement values of a test person.
  • the training session trains
  • the database 28 can also be in the form of an external database and can be connected to the training unit 29 via a data network.
  • the training unit 29 could also be arranged externally, and the trained neural network is z. B. transferred to the AI evaluation unit 26 via a data network.
  • the assessment B by the AI assessment unit 26, in particular the neural network unit 27, can also include a consistency check. In this case, it is checked whether the values of the status signals ZS are consistent with the inputs E generated by deliberate evaluation. If, for example, a state ZS associated with a positive emotion is measured and the conscious evaluation E shows a negative attitude, the relevant evaluation of the current section can either be completely rejected due to the inconsistency as a precaution or at least be weighted less.
  • the evaluation unit 23 can also have other units, for example a text analysis unit, with which text inputs are analyzed for their meaning and a quantitative evaluation variable is generated on the basis of the meaning
  • the software 30 includes a server program 31 running on a computer, e.g. B. a film production company, or stored in the cloud.
  • the software 30 also includes an app 32, which is stored on the test persons' smartphones. If a preliminary film product is now to be tested using the method according to the invention, the preliminary film product FVP is transmitted to the test persons' smartphones with the aid of the server program 31 .
  • the test subjects can now use the app 32 to watch or listen to the preliminary film product FVP and generate reactions with corresponding status signals ZS and assessments with corresponding input signals E.
  • the app 32 has program parts that are used to control sensors on the smartphone to record the reactions and assessments. For example, the app 32 may provide a scroll tracking capability.
  • the app 32 uses a camera to record eye movements or the color of the test person's skin.
  • a camera integrated into the test person's smartphone can be used as a camera for recording the physiology of a test person.
  • the app 32 can also include capabilities for measuring the reading speed, for example based on eye movements or the scrolling speed or scrolling behavior.
  • the app 32 can have the ability to assign measurement times and/or input times to the recorded reactions and/or assessments.
  • a signal ZS associated with a reaction is measured or when an input E is recorded, which is recorded as part of a transmission of assessment information from the test person to the app 32
  • the times of the measurement or input are recorded, and measurement events recorded at the same time or very close together in terms of time are assigned to a specific sub-section or action item of a section.
  • devices that happen to be in the test person and are equipped with sensors for measuring biometric data can also be integrated into the test process.
  • a sports watch or smartwatch can be integrated into the test process and a pulse rate or skin temperature can be measured with it.
  • the app 32 preferably converts the detected signals into measured values or input texts.
  • the server program 31 accepts the measured values and input texts determined by the app 32 as part of the assessments and reactions of the test subjects and carries out an evaluation based on the transmitted information in order to generate evaluation result data B for the individual sections of the preliminary overview. During the evaluation, the reactions and assessments generated by the individual test persons are combined to form an evaluation result for the individual sections.
  • the server program 31 also carries out further processing steps, such as determining an overall test result and correcting the preliminary overview, the preliminary film product and the film product in order to improve the chances of the film production being successful.

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Educational Technology (AREA)
  • Medical Informatics (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Developmental Disabilities (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Polymers With Sulfur, Phosphorus Or Metals In The Main Chain (AREA)

Abstract

Es wird ein Verfahren zur Prüfung eines Filmvorprodukts (FVP) beschrieben. Bei dem Verfahren wird ein Filmvorprodukt (FVP) einem ausgewählten Kreis von Testpersonen (8) bereitgestellt. Während oder unmittelbar nach der Rezeption des Filmvorprodukts (FVP) durch die Testpersonen (8) werden abschnittsweise Reaktionssignale (E, ZS) von den Testpersonen (8) erfasst. Es erfolgt eine automatische Auswertung der erfassten Reaktionssignale (E, ZS) zur Generierung von Bewertungsergebnisdaten (BE) der einzelnen Abschnitte (A). Optional wird auch ein Gesamtprüfergebnis (GA) des Filmvorprodukts (FVP) in Abhängigkeit von den Bewertungsergebnisdaten (B) ermittelt. Es wird ferner ein Verfahren zur Korrektur eines Filmvorprodukts (FVP) beschrieben. Außerdem wird eine Filmvorproduktprüfeinrichtung (20) beschrieben. Überdies wird eine Filmvorproduktkorrektureinrichtung beschrieben.

Description

Prüfung eines Filmvorprodukts
Die Erfindung betrifft ein Verfahren zur Prüfung eines Filmvorprodukts. Die Erfindung betrifft auch ein Verfahren zur Korrektur eines Filmvorprodukts. Weiterhin ist auch eine Filmvorproduktprüfeinrichtung Gegenstand der Erfindung sowie eine Filmvorproduktkorrektureinrichtung.
Bei der Produktion von Filmen ist es vorab schwer einzuschätzen, ob ein Filmstoff später zu einem bei der anvisierten Zielgruppe akzeptierten Film wird oder nicht. Ein Film durchläuft während seiner Produktion verschiedene Entwicklungsstufen. Beispielsweise wird im Rahmen des Entwicklungsprozesses zunächst eine Synopsis erstellt, die einen ersten Überblick über die Thematik des Films verschafft. Später wird ein sogenanntes Treatment erarbeitet, welches als eine Vorform eines Drehbuchs angesehen werden kann. Ein Treatment soll die vollständige, dramaturgisch schlüssige Geschichte eines Films vermitteln, ohne jedoch ausformulierte Szenen mit kompletten Dialogen zu enthalten, wie es bei einem kompletten Drehbuch der Fall ist. Schließlich wird das eigentliche Drehbuch erzeugt. Danach werden Filmaufnahmen von einzelnen Szenen gedreht.
Alle diese Vor- und Zwischenschritte kosten nicht nur viel Zeit, sondern auch elektrische Energie und andere Ressourcen, wie zum Beispiel Kulissen, Requisiten, die zum Teil extra angefertigt und gegebenenfalls in einer Szene wieder zerstört werden, oder Aufwand für Reisen von ganzen Teams, was bereits unter Umweltgesichtspunkten möglichst zu reduzieren ist.
Es wäre wünschenswert, in den einzelnen Stadien der Filmentwicklung Aussagen über den späteren Erfolg bei der Zielgruppe treffen zu können, um Ressourcen bei der Filmproduktion einzusparen.
Bisher besteht die Möglichkeit, eine Bewertung eines Filmstoffs durch wenige Einzelexperten vornehmen zu lassen. Weiterhin gibt es Ansätze, bei denen eine Auswertung mit Hilfe von Big Data, durch die ein neuronales Netz aufgebaut und trainiert wird (künstliche Intelligenz), erfolgt. Zudem werden Beurteilungen der Erfolgsaussichten von Filmen durch crowd-basierte Prozesse erprobt. Es gibt auch die Möglichkeit, eine Pre-Visualisierung eines Prototyps eines Films zu erzeugen, anhand dessen eine Beurteilung der späteren Akzeptanz bei der Zielgruppe erfolgt. Werden nun bei einer Beurteilung der Erfolgsaussichten viele Experten zu Rate gezogen, so kann dieser Prozess selbst ebenfalls sehr viel Zeit und sonstige Mittel kosten und möglicherweise aufgrund der mangelnden Berücksichtigung der Sicht der Zielgruppe keine adäquate Risiko-Chancen-Abschätzung ermöglichen. Hierbei besteht zusätzlich die Schwierigkeit, das Feedback nicht einheitlich auswerten zu können.
Es ist daher eine Aufgabe der vorliegenden Erfindung, ein verbessertes Bewertungs- und Analyseverfahren und eine dafür geeignete technische Einrichtung bereitzustellen, welche in den unterschiedlichen Stadien einer Filmproduktion zur Erfolgsprognose sowie der Verbesserung des bestehenden Filmvorprodukts bzw. des finalen Films herangezogen werden können.
Diese Aufgabe wird durch ein Verfahren zur Prüfung eines Filmvorprodukts nach Anspruch 1 , ein Verfahren zur Korrektur eines Filmvorprodukts nach Patentanspruch 11 , eine Filmvorproduktprüfeinrichtung nach Anspruch 14 sowie eine Filmvorproduktkorrektureinrichtung nach Anspruch 15 gelöst.
Bei dem erfindungsgemäßen Verfahren zur Prüfung eines Filmvorprodukts wird zunächst das Filmvorprodukt einem ausgewählten Kreis von Testpersonen bereitgestellt, d. h. zur Verfügung gestellt bzw. präsentiert. Die Präsentation kann eine bildliche Anzeige, eine Darstellung eines Texts, Film oder eine akustische Widergabe sowie beliebige Kombinationen der genannten Präsentationsarten umfassen. Die Präsentation erfolgt vorzugsweise mit Hilfe eines technischen Systems, wie zum Beispiel ein Personal Computer, ein Laptop, ein Notebook, ein Tablet oder ein Smartphone. Bei einem Filmvorprodukt handelt es sich um ein während des Prozesses der Filmproduktion erzeugtes Zwischenergebnis, welches vor dem Abschluss der Filmproduktion bzw. bevor das Endprodukt der Filmproduktion erzeugt wird, bereits einen Überblick über das Handlungsgeschehen sowie weitere Teilaspekte des Endprodukts ermöglicht.
Das Filmvorprodukt stellt eine vorab erzeugte Information, beispielsweise eine Zusammenfassung, bezüglich des jeweiligen Filmprodukts dar. Das Filmprodukt selbst wird dann im Prozess der Filmproduktion zeitlich nach dem Filmvorprodukt erzeugt. Bei dem Filmprodukt selbst handelt es sich um das Endprodukt der Filmproduktion, in der Regel den fertigen Film. Dabei erfolgt ein Aufteilen des Filmvorprodukts in einzelne Abschnitte für eine feiner aufgelöste Beurteilung bzw. Prüfung. Umfasst das Filmvorprodukt zum Beispiel eine grobe textliche Zusammenfassung der Handlung eines Filmprodukts, welche von der Testperson gelesen oder dieser vorgelesen wird, so kann beispielsweise der Text in einzelne Kapitel bzw. Szenen, Absätze und Sätze bzw. Halbsätze unterteilt werden. Handelt es sich bei dem Filmvorprodukt um einen Film, so kann z.B. der Film in einzelne Szenen bzw. Momente als Abschnitte unterteilt werden.
Bei dem eigentlichen Test- und Beurteilungsvorgang erfolgt zunächst eine Rezeption der einzelnen Abschnitte des Filmvorprodukts durch die Testpersonen und zeitgleich oder unmittelbar im Anschluss erzeugen die Testpersonen eine Mehrzahl von unterschiedlichen Reaktionssignalen, die vorzugsweise Informationen bezüglich ihrer bewussten oder unbewussten Reaktionen auf die rezipierten Abschnitte des Filmvorprodukts aufweisen.
Diese abschnittsbezogenen Reaktionssignale, seien sie bewusst oder unbewusst erzeugt, werden dann, beispielsweise mit Hilfe von Sensoren, erfasst. Zum Beispiel kann die Erfassung durch einen Eingabevorgang der Testperson erfolgen, bei dem durch eine Benutzerschnittstelle ein durch eine bewusste Eingabeaktion der Testperson erzeugtes physikalisches Signal erfasst wird. Die Erfassung kann aber auch durch sensorbasiertes Messen einer vorzugsweise unbewussten physiologischen Reaktion der Testperson realisiert werden. Dieser Sachverhalt wird später noch im Detail erläutert.
Es sei an dieser Stelle darauf hingewiesen, dass das „Aufteilen“ des Filmvorprodukts in die einzelnen Abschnitte des Filmvorprodukts bevorzugt vor einer Präsentation des Filmvorprodukts erfolgen kann, d. h. das Werk wird wie oben erwähnt bevorzugt in vorbestimmte „inhaltsbezogene Abschnitte“ unterteilt, die vom Inhalt des Werks abhängen, wie Kapitel, Szenen etc. Dabei kann die Aufteilung auch schon direkt bei der Erstellung des Filmvorprodukts geschehen bzw. bereits durch ein Produkt einer vorhergehenden Produktionsstufe vorgegeben sein. Grundsätzlich können die Abschnitte aber auch einfach zeitlich und/oder mengenmäßig (bzw. zeitdauerbezogen und/oder mengenbezogen) festgelegt werden, z. B. jeder Abschnitt umfasst eine bestimmte Zeitdauer, die bei der Präsentation bzw. Rezeption (zumindest geschätzt) benötigt wird, oder einen bestimmten Umfang (beispielsweise eine bestimmte Textmenge, insbesondere eine Zeile). Verschiedene Aufteilungsverfahren können auch kombiniert genutzt werden, z. B. eine Aufteilung in inhaltsbezogene Abschnitte und eine weitere zeitdauerbezogene und/oder mengenbezogene Unterteilung oder eine parallele Anwendung beider Verfahren. Die vorteilhafteste Variante kann von der Art des Filmvorprodukts und der Präsentationsart abhängen. Im Folgenden wird als bevorzugtes Beispiel, ohne Beschränkung der Allgemeinheit, davon ausgegangen, dass zunächst (zumindest auch) eine Aufteilung in inhaltsbezogene Abschnitte erfolgt, sofern dies nicht anders erwähnt ist. Die Abschnitte bzw. deren Grenzen können auch in geeigneter Weise markiert werden.
Das komplette Filmvorprodukt kann den Testpersonen jeweils Abschnitt für Abschnitt präsentiert werden, mit eventuellen Pausen dazwischen, um die Reaktionssignale zu erfassen. Das gesamte Filmvorprodukt kann, je nach Art des Produkts, aber auch zusammenhängend präsentiert werden und die jeweils erfassten Reaktionssignale werden dem in Zusammenhang damit (z. B. zeitgleich) jeweils präsentierten Abschnitt zugeordnet. Eine „Aufteilung“ in Abschnitte kann im Übrigen auch, z. B. automatisch, während der Präsentation des Filmvorprodukts bzw. der Rezeption durch die Testpersonen erfolgen, insbesondere wenn es sich um eine zeitliche bzw. mengenmäßige Aufteilung handelt. Auch ist im Verfahren noch eine weitere, verfeinerte Unterteilung der Abschnitte in Teilabschnitte möglich.
Als nächstes wird im Rahmen des Prüfungsvorgangs eine automatische Auswertung der erfassten Reaktionssignale durchgeführt, um auf diese Weise Bewertungsergebnisdaten der einzelnen Abschnitte zu generieren, die auf den zu dem jeweiligen Abschnitt erfassten Reaktionssignalen, d.h. unbewussten Reaktionen und/oder Beurteilungen der Testpersonen basieren. Im Rahmen dieser Auswertung werden nun Bewertungsergebnisdaten erzeugt, welche Informationen hinsichtlich der subjektiven Qualität einzelner Abschnitte des Filmvorprodukts und damit auch des später noch zu erzeugenden Filmprodukts umfassen.
Vorteilhaft kann schon in einem frühen Stadium eine Aussage über die Erfolgsaussichten eines Filmstoffs getroffen werden und so ein unnötiger Ressourceneinsatz bei einer Produktion reduziert werden. Die Auswertung kann zum Beispiel auf Basis einer modellhaften Beziehung zwischen möglichen Reaktionen der Testpersonen und einzelnen Einflussgrößen, welche im Zusammenhang mit dem späteren Erfolg eines Filmprodukts stehen, realisiert werden. Die Auswertung kann aber auch mit Hilfe von Kl-basierten Techniken umgesetzt werden. Beispielsweise kann auf Basis von Trainingsdaten mit Hilfe eines sogenannten Deep-Learning-Algorithmus ein neuronales Netzwerk erzeugt bzw. trainiert werden, welches die gewünschten Ergebnisdaten anhand der erfassten Reaktionssignale ermittelt. Ein konkretes Beispiel hierzu wird später noch erläutert. Diese Variante ist besonders flexibel an Eigenschaften unterschiedlicher Testgruppen und Testanforderungen anpassbar. Die Auswertung kann auch teilweise unter Hinzuziehung von Experten erfolgen. Beispielsweise können ein oder mehrere Experten die Texte bzw. verbalen Reaktionen der Testpersonen auswerten, während nonverbale Reaktionen automatisiert ausgewertet werden.
Optional kann auch ein Gesamtprüfergebnis des Filmvorprodukts in Abhängigkeit von den Bewertungsergebnisdaten ermittelt werden, um den an der Filmproduktion beteiligten Personen eine vereinfachte Entscheidungshilfe an die Hand zu geben. Vorteilhaft gibt das Gesamtergebnis über Erfolgsaussichten und Qualität einzelner Passagen sowie des gesamten Films Auskunft. Das Gesamtergebnis setzt sich aus einer Kombination von Bewertungen einer Mehrzahl von Testpersonen zusammen und ermöglicht bei ausreichend großer Anzahl von Testpersonen eine näherungsweise objektive Beurteilung (erzeugt durch subjektive Einzeleinschätzungen) der Erfolgsaussichten eines im Produktionsprozess befindlichen Films. Vorteilhaft erfolgt sowohl der Bewertungsprozess als auch der Auswertungsprozess weitestgehend oder sogar vollständig durch technische Mittel automatisiert, so dass eine Beziehung von Experten für die Erstellung eines Gutachtens hinsichtlich der Erfolgsaussicht vermieden werden kann und die dafür aufzuwendenden Kosten eingespart werden können.
Bei dem erfindungsgemäßen Verfahren zur Korrektur eines Filmvorprodukts wird zunächst das erfindungsgemäße Verfahren zur Prüfung eines Filmvorprodukts durchgeführt und anschließend wird die nächste Version des Filmvorprodukts in Abhängigkeit von den Bewertungsergebnisdaten des durchgeführten Verfahrens erzeugt. D.h. es erfolgt auf Basis der Bewertungsergebnisdaten eine Korrektur des bisherigen Konzepts des Filmprodukts bzw. eine Änderung des Filmvorprodukts, so dass das in dem aktuellen Stadium erzeugte Produkt bzw. Vorprodukt verbessert wird bzw. derart geändert wird, dass das spätere Filmprodukt verbesserte Erfolgsaussichten bei der gewünschten Zielgruppe hat. Vorteilhaft kann der Herstellungsprozess eines Films eine oder mehrere Korrekturphasen umfassen, bei denen eine weitgehend oder vollständig automatisierte Korrektur von Zwischenstufen oder Endstufen einer Filmproduktion erfolgt. Die Korrektur erfolgt auf einer breiten Datenbasis und erhält auf diese Weise im Vergleich zu einer Korrektur auf Basis der Meinung einzelner Experten ein erhöhtes Maß an Objektivität, was zu verbesserten Erfolgsaussichten des hergestellten Filmprodukts beiträgt. Dabei ist insbesondere auch eine wiederholte Prüfung und Korrektur eines Filmvorprodukts in einem iterativen Prozess möglich, wobei auch die Testpersonengruppe zwischen den Iterationsstufen angepasst werden kann.
Die erfindungsgemäße Filmvorproduktprüfeinrichtung weist eine Wiedergabeeinheit zum Bereitstellen eines Filmvorprodukts für einen ausgewählten Kreis von Testpersonen auf. Teil der erfindungsgemäßen Filmvorproduktprüfeinrichtung kann auch eine Strukturierungseinheit zum Aufteilen des Filmvorprodukts in einzelne Abschnitte für eine feiner aufgelöste Beurteilung bzw. Prüfung sein, z. B. um das Filmvorprodukt in vorbestimmte, insbesondere inhaltsbezogene, Abschnitte zu unterteilen.
Umfasst das Filmvorprodukt zum Beispiel eine grobe textliche Zusammenfassung der Handlung eines Filmprodukts, so wird der Text dann z. B. in einzelne Kapitel bzw. Szenen, Absätze und Sätze bzw. Halbsätze unterteilt. Handelt es sich bei dem Filmvorprodukt um einen Film, so wird der Film z. B. in einzelne Szenen bzw. Momente als Abschnitte unterteilt.
Das Filmvorprodukt kann aber auch schon wie erwähnt bei der Erstellung in geeignete Abschnitte unterteilt sein und z. B. mit entsprechenden Abschnittsmarkierungen versehen sein.
Die erfindungsgemäße Filmvorproduktprüfeinrichtung weist zudem eine Erfassungseinheit zum abschnittsweisen Erfassen von Reaktionssignalen von Testpersonen während bzw. zeitgleich mit oder unmittelbar folgend auf die Rezeption des Filmvorprodukts durch die Testpersonen auf. Mit einem abschnittsweisen Erfassen ist insbesondere gemeint, dass die einzelnen Reaktionssignale einem bestimmten Abschnitt eindeutig zugeordnet werden, so dass eine fein aufgelöste Prüfung und Beurteilung des Filmvorprodukts möglich ist. Dabei könnte, insbesondere wenn die Aufteilung z. B. erst während der Präsentation erfolgen soll, die Aufteilung bzw. Einteilung in Abschnitte auch durch die Erfassungseinheit und/oder die Wiedergabeeinheit bzw. eine beliebige andere Einheit erfolgen, insbesondere, wenn eine zeitdauerbezogene und/oder mengenbezogene Aufteilung erfolgen soll.
Durch eine geeignete Kommunikation bzw. Synchronisation dieser verschiedenen Einheiten bzw. der Strukturierungseinheit und/oder unter Nutzung von Abschnittsmarkierungen kann die Zuordnung der Reaktionssignale zu einem bestimmten Abschnitt sichergestellt werden. Die Reaktionssignale basieren auf den Reaktionen und/oder Beurteilungen der Testpersonen und liegen als physikalisch messbare Signale vor.
Teil der erfindungsgemäßen Filmvorproduktprüfeinrichtung ist auch eine Bewertungsdatenermittlungseinheit, welche dazu eingerichtet ist, eine automatische Auswertung der erfassten Reaktionssignale durchzuführen, um Bewertungsergebnisdaten der einzelnen Abschnitte auf Basis der erfassten Reaktionen und/oder Beurteilungen der Testpersonen zu generieren. Die Bewertungsdatenermittlungseinheit, auch Bewertungseinheit genannt, kann noch weitere Einheiten aufweisen, beispielsweise eine Textanalyseeinheit, mit der Texteingaben auf ihren Bedeutungsgehalt analysiert werden und anhand der Bedeutung eine quantitative Bewertungsgröße erzeugt wird. Die erfindungsgemäße Filmvorproduktprüfeinrichtung kann optional auch eine Ergebnisermittlungseinheit zur Ermittlung eines Gesamtprüfergebnisses des Filmvorprodukts in Abhängigkeit von den Bewertungsergebnisdaten umfassen. Die erfindungsgemäße Filmvorproduktprüfeinrichtung teilt die Vorteile des erfindungsgemäßen Verfahrens zur Prüfung eines Filmvorprodukts.
Die erfindungsgemäße Filmvorproduktkorrektureinrichtung weist die erfindungsgemäße Filmvorproduktprüfeinrichtung sowie eine Korrektureinheit zur Änderung des Filmvorprodukts in Abhängigkeit von den Bewertungsergebnissen der erfindungsgemäßen Filmvorproduktprüfeinrichtung auf. Die Korrektureinheit kann in einer einfachen Realisierung dazu eingerichtet sein, einen als wenig erfolgsversprechend bewerteten Abschnitt im Filmvorprodukt zu eliminieren. In einer komplexeren Ausgestaltung kann die Korrektureinheit zum Beispiel Eingaben einer an der Filmproduktion beteiligten Person zur Änderung eines Abschnitts oder Teilabschnitts des Filmvorprodukts entgegennehmen. Die erfindungsgemäße Filmvorproduktkorrektureinrichtung teilt die Vorteile des erfindungsgemäßen Verfahrens zur Korrektur eines Filmvorprodukts.
Teile der erfindungsgemäßen Filmvorproduktprüfeinrichtung und der Filmvorproduktkorrektureinrichtung können zum überwiegenden Teil in Form von Softwarekomponenten ausgebildet sein.
Dies betrifft insbesondere Teile der Wiedergabeeinheit, der Strukturierungseinheit, der Erfassungseinheit, der Bewertungsdatenermittlungseinheit und der Ergebnisermittlungseinheit sowie der Korrektureinheit. Grundsätzlich können diese Komponenten aber auch zum Teil, insbesondere wenn es um besonders schnelle Berechnungen geht, in Form von softwareunterstützter Hardware, beispielsweise FPGAs, PLD oder dergleichen, realisiert sein. Ebenso können die benötigten Schnittstellen, beispielsweise wenn es nur um eine Übernahme von Daten aus anderen Softwarekomponenten geht, als Softwareschnittstellen ausgebildet sein. Sie können aber auch als hardwaremäßig aufgebaute Schnittstellen ausgebildet sein, die durch geeignete Software angesteuert werden.
Eine teilweise softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher bei der Filmproduktion genutzte Rechnersysteme und Netzwerke auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Insofern wird die Aufgabe auch durch ein entsprechendes Computerprogrammprodukt mit einem Computerprogramm gelöst, welches direkt in eine Speichereinrichtung eines solchen Rechnersystems ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens zur Prüfung eines Filmvorprodukts oder des Verfahrens zur Korrektur eines Filmvorprodukts auszuführen, wenn das Computerprogramm in dem Rechnersystem ausgeführt wird.
Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile, wie z.B. eine Dokumentation und/oder zusätzliche Komponenten, auch Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
Zum T ransport zur Speichereinrichtung des Rechnersystems und/oder zur Speicherung an dem Rechnersystem kann ein computerlesbares Medium, beispielsweise ein Memorystick, eine Festplatte oder ein sonstiger transportabler oder fest eingebauter Datenträger dienen, auf welchem die von einer Rechnereinheit einlesbaren und ausführbaren Programmabschnitte des Computerprogramms gespeichert sind. Die Rechnereinheit kann z.B. hierzu einen oder mehrere zusammenarbeitende Mikroprozessoren oder dergleichen aufweisen. Darüber hinaus kann die Übertragung des Computerprogramms und die Speicherung der Daten auch über das Internet bzw. eine Cloud-basierte Lösung erfolgen.
Vorzugsweise kann ein solches Computerprogrammprodukt als eine modulare Softwarelösung ausgebildet sein, welche um Hardwarekomponenten erweiterbar ist. Die Software umfasst in einer solchen Ausgestaltung ein Serverprogramm, welches auf einem Rechner, z. B. einer Filmproduktionsfirma, oder in der Cloud gespeichert ist. Weiterhin umfasst die Software auch eine App, welche jeweils auf den sogenannten Client-Geräten, vorzugsweise Endgeräten, wie zum Beispiel Smartphones, der Testpersonen gespeichert ist. Soll nun ein Filmvorprodukt mit dem erfindungsgemäßen Verfahren geprüft werden, so wird mit Hilfe des Serverprogramms das Filmvorprodukt an die Clients, beispielsweise die Smartphones der Testpersonen übermittelt. Die Testpersonen können nun mit Hilfe der App das Filmvorprodukt ansehen oder anhören und Reaktionen mit entsprechenden Zustandssignalen und Beurteilungen mit entsprechenden Eingabesignalen erzeugen. Die App weist Programmteile auf, mit denen Sensoren des Clients bzw. Smartphones zur Erfassung der Reaktionen und Beurteilungen angesteuert werden. Die App kann zum Beispiel eine Scrolltrackingfähigkeit bereitstellen. Zudem wird durch die App eine Kamera zur Erfassung von Augenbewegungen oder der Hautfärbung der Testperson genutzt. Als Kamera zur Erfassung der Physiologie einer Testperson kann zum Beispiel eine in einen Client, beispielsweise ein Smartphone, der Testperson integrierte Kamera eingesetzt werden. Weiterhin kann die App auch Fähigkeiten zur Messung der Lesegeschwindigkeit, beispielsweise auf Basis der Augenbewegungen oder der Scrollgeschwindigkeit bzw. des Scrollverhaltens umfassen. Zudem kann die App eine Fähigkeit zur Zuordnung von Messzeitpunkten und/oder Eingabezeitpunkten zu den erfassten Reaktionen und/oder Beurteilungen aufweisen. D.h., es werden bei einer Messung eines mit einer Reaktion verbundenen Signals oder bei einer Erfassung einer Eingabe, welche im Rahmen einer Übertragung einer Beurteilungsinformation von der Testperson an die App erfasst wird, jeweils die Zeitpunkte der Messung bzw. Eingabe erfasst, und es werden gleichzeitige oder zeitlich sehr nahe beieinanderliegend erfasste Messereignisse einem bestimmten Unterabschnitt oder Handlungsgegenstand eines Abschnitts zugeordnet. Mit der App können auch zufällig bei der Testperson vorhandene, mit Sensoren zur Messung biometrischer Daten ausgestattete Geräte in den Testvorgang eingebunden werden. Zum Beispiel kann mit Hilfe der App eine Sportuhr oder Smartwatch in den Testvorgang mit eingebunden und damit eine Pulsfrequenz oder Hauttemperatur gemessen werden.
Die App wandelt vorzugsweise die erfassten Signale in Messwerte oder Eingabetexte um. Das Serverprogramm nimmt die von der App im Rahmen der Beurteilungen und Reaktionen der Testpersonen ermittelten Messwerte und Eingabetexte entgegen und führt eine Auswertung auf Basis der übermittelten Informationen aus, um Bewertungsergebnisdaten für die einzelnen Abschnitte der Vorübersicht zu erzeugen. Bei der Bewertung werden die von den einzelnen Testpersonen erzeugten Reaktionen und Beurteilungen zu einem Bewertungsergebnis der einzelnen Abschnitte kombiniert. Das Serverprogramm führt auch weitere Prozessierungsschritte, wie zum Beispiel die Ermittlung eines Gesamtprüfergebnisses sowie eine Korrektur des Filmvorprodukts aus, um die Erfolgschancen der Filmproduktion zu verbessern. Weitere besonders vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen sowie der nachfolgenden Beschreibung, wobei die Patentansprüche einer bestimmten Kategorie auch gemäß den abhängigen Ansprüchen einer anderen Kategorie weitergebildet sein können und Merkmale verschiedener Ausführungsbeispiele zu neuen Ausführungsbeispielen kombiniert werden können.
Die im Rahmen des Verfahrens zur Prüfung eines Filmvorprodukts erfassten Reaktionssignale können Eingabesignale oder Zustandssensorsignale umfassen. Als Eingabesignal soll ein Signal verstanden werden, welches bewusst durch eine Testperson über eine Schnittstelle übermittelt wird. Das Eingabesignal umfasst eine Information, die von der Testperson bewusst erzeugt und übermittelt wird. Dagegen werden Zustandssensorsignale durch Sensoren erzeugt, die den Zustand, insbesondere einen physiologischen oder biometrischen Zustand einer Testperson messen. Die Zustandssensorsignale umfassen somit Informationen, welche ausgewertet werden können, um Informationen über die Emotionen und die unbewusste Haltung der Testperson zu dem Filmvorprodukt zu ermitteln.
Reaktionen und/oder Beurteilungen können zum Beispiel durch bewusste Eingabe über eine Benutzerschnittstelle durch eine Testperson erzeugt werden. Beispielsweise betätigt eine Testperson eine Eingabetaste oder berührt mit einem Zeigegerät direkt oder indirekt ein Bewertungsfeld auf einer für eine solche Eingabe vorgesehenen Bildanzeigeeinrichtung. Eine solche Einrichtung kann zum Beispiel einen Touchscreen, ein Touchpad oder ähnliches umfassen. Bewusste Eingaben haben den Vorteil, dass sie sehr differenziert sind und direkt verwertbar sind und damit erzeugte Informationen somit leicht auswertbar sind.
Ein Zustandssensorsignal eignet sich insbesondere für das Erfassen biometrischer oder physiologischer Daten, die von einer Testperson beispielsweise unbewusst erzeugt werden. Unbewusste Reaktionen können sich durch physiologische Phänomene oder andere unwillkürliche Bewegungen oder Änderungen körperlicher Zustände, wie zum Beispiel eine Änderung der Körpertemperatur, der Hautfarbe, der Schweißproduktion, des Blutdrucks o- der der Herzfrequenz bemerkbar machen. Derartige Phänomene können durch eine sensorbasierte Messung biometrischer und/oder physiologischer Daten der Testpersonen erfasst werden. Die Messung unbewusster Reaktionen hat den Vorteil, dass diese kaum willentlich durch die Testperson beeinflusst werden können und damit authentisch sind und auch nicht leicht manipuliert werden können. Zudem muss die Testperson bei der Erfassung unbewusster Reaktionen bzw. darauf basierender Reaktionssignale keine Kooperationsleistung erbringen, was insbesondere bei Kindern als Testpersonen von Vorteil ist. Überdies entscheiden bei der Wahl des Filmkonsums überwiegend emotionale Aspekte, die anhand von unwillkürlichen Reaktionen möglicherweise sogar authentischer und genauer erfassbar sind als mit Hilfe ausführlicher und durchdachter bewusster Beurteilungen.
Für den Fall einer Erfassung von mehreren unterschiedlichen zeitnah erfassten Reaktionssignalen kann eine Zuordnung dieser Reaktionssignale zu einem Unterabschnitt eines Abschnitts erfolgen. Ein solcher Unterabschnitt kann zum Beispiel mehrere Sätze oder genau einen Satz oder Halbsatz eines Textes oder Dialogs oder bei einem Film eine Szene bzw. Dialogsequenz, oder eine bestimmte Zeitdauer, z. B. eine Sekunde, umfassen. Unterabschnitte können dabei (wie die Abschnitte selbst) grundsätzlich inhaltsbezogen, zeitdauerbezogene und/oder mengenbezogen gewählt sein.
Auf diese Weise können unterschiedliche Reaktionen und/oder Beurteilungen mit einem gemeinsamen Unterabschnitt eines Abschnitts assoziiert werden. Diese Zuordnung kann zum Beispiel durch eine Ermittlung und Zuordnung eines Messzeitpunkts oder Eingabezeitpunkts zu den jeweiligen unterschiedlichen Reaktionssignalen realisiert werden. Weisen nun unterschiedliche Reaktionssignale denselben oder zumindest einen zeitlich sehr nahe beieinanderliegend ermittelten Messzeitpunkt oder Eingabezeitpunkt auf, so können sie ein- und demselben Gegenstand der Beurteilung oder Reaktion zugeordnet werden. Auf diese Weise kann eine Bewertung eines Unterabschnitts auf Basis einer breiteren Messdatengrundlage erfolgen.
Werden unterschiedliche Reaktionssignale, vorzugsweise basierend auf unbewussten und bewussten Reaktionen und/oder Beurteilungen, erfasst, so kann, falls sie, wie vorstehend beschrieben, ein- und demselben Unterabschnitt zuzuordnen sind und somit indirekt aufeinander bezogen sind, anhand dieser unterschiedlichen Informationsquellen eine Konsistenzprüfung erfolgen.
Vorzugsweise wird bei der Konsistenzprüfung zumindest ein unbewusst erzeugtes Reaktionssignal berücksichtigt. Diese Konsistenzprüfung erfolgt dabei besonders zwischen bewusst und unbewusst erzeugten Bewertungsdaten. Eine solche Konsistenzprüfung ermöglicht es, die Qualität und Realitätsnähe der Reaktionen und/oder Beurteilungen zu überprüfen. Beispielsweise kann es vorkommen, dass eine Testperson zwar ein für den Test ausgesetztes Entgelt kassieren möchte, aber keine Lust auf den eigentlichen Testvorgang verspürt und daher den Test unaufmerksam und ohne Interesse durchführt. Das von dieser Person erzeugte Testergebnis kann aufgrund des Desinteresses dieser Person möglicherweise wertlos sein oder sich sogar negativ auf die Verlässlichkeit des Gesamtergebnisses auswirken, wenn die Testperson willkürliche Bewertungen oder absichtlich falsche Bewertungen eingibt. Werden nun anhand von unbewusstem Verhalten erzeugte Reaktionssignale, welche zum Beispiel physiologische oder biometrische Daten umfassen, erfasst und widersprechen diese zeitgleich erfassten bzw. auf dieselben Produktabschnitte bezogenen bewussten Reaktionen, so kann daraus geschlossen werden, dass die Testperson nicht engagiert war und daher ihr Testergebnis besser nicht berücksichtigt wird. Es kann auch während des Tests zu einer Ablenkung der Testperson kommen, so dass die Testperson möglicherweise nur zeitweise, zum Beispiel bei der Rezeption eines einzigen Abschnitts oder einiger weniger Abschnitte der Vorübersicht keine verwertbare Reaktion oder Beurteilung liefert. Auch ein solcher vorübergehender Ausfall bzw. Störeffekt kann mit Hilfe einer Konsistenzprüfung erkannt werden. In einem solchen Fall kann dann die Beurteilung der betreffenden Abschnitte bei einer Gesamtbewertung vernachlässigt werden, während Abschnitte, die von der Testperson ohne Ablenkung rezipiert wurden, bzw. deren Beurteilung in das Endergebnis mit einfließen. Auf diese Weise kann also auch eine teilweise Verwertbarkeit eines Testvorgangs zielgenau erkannt und bei der Auswertung berücksichtigt werden.
In einer besonders praktikablen Ausgestaltung des erfindungsgemäßen Verfahrens zur Prüfung eines Filmvorprodukts umfasst das Filmvorprodukt mindestens eine der Wiedergabearten:
- einen Text,
- eine Audioversion des Filmstoffs,
- eine Filmdarstellung.
Eine Textwiedergabe erlaubt es einem Probanden, in individueller Lesegeschwindigkeit auch Details der Vorübersicht zu erfassen und sowohl eine intuitive sowie auch eine detaillierte und wohlüberlegte, rein subjektive, Bewertung schnell abzugeben. Außerdem eignet sich diese Wiedergabeart vor allem für eine frühe Phase der Filmproduktion, bei der gewöhnlich ein Filmvorprodukt nur in Form einer schriftlichen Zusammenfassung, wie zum Beispiel eine Synopsis, ein Treatment oder ein Drehbuch, zur Verfügung steht.
Eine Audioversion eines Filmstoffs, beispielsweise in Form eines Hörbuchs oder einer Text- to-Speech Wiedergabe, ermöglicht eine besonders zeitsparende Rezeption eines Film- Stoffs, wobei die Testperson zeitgleich auch einer Paralleltätigkeit nachgehen kann. Beispielsweise kann die Testperson zeitgleich einer Reisetätigkeit in einem Zug, einer Ausdauersporttätigkeit oder einer Haushaltstätigkeit, wie zum Beispiel Putzen oder Bügeln oder Kochen, nachgehen, so dass sie nicht exklusiv für den Testvorgang des Films kostbare Zeit opfern muss. Da bei dieser Variante eine Ablenkung der Testperson durch ihre Haupttätigkeit zumindest zeitweise wahrscheinlich ist, kann hier besonders vorteilhaft die beschriebene Konsistenzprüfung genutzt werden, um zu prüfen, ob die Testperson gerade abgelenkt ist oder genügend aufmerksam ist.
Eine Filmdarstellung ermöglicht insbesondere in einer fortgeschritteneren Phase der Filmproduktion ein dem Endprodukt vergleichbares Szenario bei der Wiedergabe bzw. Rezeption durch die Testperson, so dass auch die Reaktionssignale der Testperson und die darauf basierenden Bewertungsergebnisse realitätsnäher und zuverlässiger sind als bei einer Wiedergabe einer Text- oder Audioversion.
Eine solche Filmdarstellung kann zum Beispiel bei einem graphischen Storyboard hinterlegte Dialoge und Geräusche oder Musik umfassen. Die Filmdarstellung kann aber auch durch einen über eine Game-Engine erstellten animierten Film realisiert sein. Schließlich kann die Filmdarstellung auch eine grobe Schnittversion des Films umfassen.
Wenn durch die Testperson eine Erzeugung eines Eingabesignals als Reaktionssignal erfolgen soll, so kann an die Testperson ein Eingabeaufforderungssignal, ein sogenanntes Prompt-Signal, zur Bewertung eines Abschnitts eines Filmvorprodukts ausgegeben werden. Bei einer bevorzugten Variante kann zum Beispiel ein Feld mit einem graduellen Farbverlauf oder mehreren Farbbalken angezeigt werden. Die Farbbalken können zum Beispiel auf einem Bildschirm am Ende jedes Abschnitts angezeigt werden und können vom Benutzer, d.h. der Testperson, mit Hilfe einer Zeigeeinheit, beispielsweise einer Maus, angewählt werden.
Ein solcher Abschnitt kann zum Beispiel einen Text, einen Audioausschnitt, eine Grafik, insbesondere eine bewegte Grafik oder eine Filmsequenz oder Kombinationen davon umfassen, welche Dialoge und /oder eine Handlung wiedergeben. Im Fall eines Textes weist dieser normalerweise eine Mehrzahl von Zeilen bis etwa ein bis zwei Seiten Text auf, ohne dass zwischen den Seiten eine Seitenumschaltung erfolgt. Der Text kann ab einer gewissen Mindestlänge als scrollbarer Text angezeigt werden, so dass der Leser sich ohne Umblättern zum Ende des Textes des Abschnitts vorarbeiten kann. Sobald der Abschnitt zu Ende gelesen bzw. rezipiert wurde, wechselt der Leser bzw. Rezipient durch eine Eingabe, wie zum Beispiel einen Klick, zum nächsten Abschnitt. Bei dieser vorteilhaften Ausgestaltung erfolgt aber, anstatt nach einem Klick des Lesers nur zum nächsten Abschnitt zu wechseln, eine Darstellung einer Eingabeaufforderung mit einer Schaltfläche, welche einen graduellen Farbverlauf oder mehrere unterschiedlich gefärbte Schaltflächen aufweist. Die Schaltflächen können anstatt von unterschiedlichen Farben o- der zusätzlich dazu auch andere Unterscheidungsmerkmale wie zum Beispiel unterschiedliche Texturen, Symbole oder ähnliches umfassen. Bei dieser vorteilhaften Variante kann der Benutzer durch einen einzigen Klick sowohl zum nächsten Abschnitt wechseln als auch gleichzeitig eine Bewertung abgeben, indem er die Farbfläche an einer Stelle mit einer bestimmten Farbe anwählt oder bei einer Darstellung diskreter unterschiedlich gefärbter oder texturierter Schaltflächen eine von diesen auswählt und so eine Bewertung des gerade gelesenen bzw. rezipierten Abschnitts abgibt. Dabei ist eine bestimmte Farbe oder Texturierung mit einem bestimmten Wert einer Bewertung verknüpft. Erst wenn der Benutzer bzw. die Testperson ihre Wahl, beispielsweise durch einen Klick getroffen hat, wird ihr automatisch der nächste Abschnitt angezeigt, so dass eine Bewertung jedes einzelnen Abschnitts durch die Testperson gesichert ist. In einer besonders einfachen Variante wird der Testperson eine Schaltfläche mit nur drei Farben, beispielsweise grün, gelb und rot, angezeigt. Grün bedeutet z. B., dass der Abschnitt der Testperson gut gefallen hat, gelb bedeutet, dass der Abschnitt noch verbessert werden kann bzw. nicht ganz verstanden wurde, und rot bedeutet, dass der Abschnitt der Testperson nicht gefallen hat. Eine solche fest vorgegebene Auswahl eines Schaltfelds oder einer Farbe erlaubt es der Testperson, nach dem Durchlesen bzw. Rezipieren eines Abschnitts ohne zusätzlichen Aufwand und Zeitverzug eine Bewertung abzugeben.
Soll eine etwas differenziertere Bewertung eines Abschnitts möglich sein, so kann eine Schaltfläche zur Bewertung mit einem kontinuierlichen Farbverlauf, beispielsweise über die drei genannten Farben, dargestellt werden. Die Testperson kann dann einen beliebigen Bereich anklicken und auf diese Weise eine fein abgestufte Bewertung abgeben. Beispielsweise kann dann eine beliebige Bewertung zwischen 0% Zustimmung und 100% Zustimmung zu einem Abschnitt abgegeben werden.
Soll eine noch differenziertere Beurteilung erfolgen, so kann der Testperson auf ein vorbestimmtes Eingabesignal hin, beispielsweise ein Langklick, ein Textfeld angezeigt werden, in dem ein Freitextkommentar eingebbar ist. Die beiden unterschiedlichen Bewertungsarten können auch miteinander kombiniert werden. Das Eingabesignal kann auch als Reaktionssignal mit in die Bewertung einfließen. D.h., dass die Testperson überhaupt einen Kommentar abgibt, bedeutet, dass ihr ein Abschnitt besonders wichtig ist. Darüber hinaus kann auch der Inhalt des Textes für eine Bewertung ausgewertet werden.
Soll ein Abschnitt noch genauer bewertet werden, so können auch einzelne Sätze oder Halbsätze eines Abschnitts markiert, insbesondere farbig oder mit einer Textur markiert werden, um diese zu beurteilen.
Es kann in der durch ein Prompt-Signal verkörperten Eingabeaufforderung auch ein Feld für eine Gesamtbewertung der Vorübersicht durch eine Graphendarstellung angezeigt werden. Bei dieser Art der Bewertung erzeugt eine Testperson eine graphische Kurve, welche einen Zustimmungswert in Abhängigkeit von der aktuellen Position im Text oder der Filmstelle, beispielsweise in Abhängigkeit von einer Abschnittsnummer und einer Zeilennummer, einer Zeitangabe oder einer Schlüsselszene veranschaulicht. Der Zustimmungswert kann zum Beispiel von 0% Zustimmung bis 100% Zustimmung variieren, so dass eine sehr differenzierte Bewertung möglich ist.
Soll die Testperson, insbesondere bei einer akustischen Rezeption der Vorübersicht, möglichst wenig Aufwand treiben müssen, so kann auch eine akustische Schnittstelle für eine durch Spracheingabe vorgenommene Bewertung realisiert werden. Hier kann z. B. auch zunächst ein akustisches Promptsignal generiert werden. Eine durch Spracheingabe vorgenommene Bewertung kann eine mündliche Angabe eines Skalenwerts und/oder einen Freitextkommentar umfassen. Nach Abgabe der Bewertung wird automatisiert der nächste Abschnitt vorgelesen bzw. akustisch wiedergegeben. Auch kann zum Beispiel durch die Testperson durch ein Schlüsselwort ein Stoppbefehl gegeben werden, der mit Hilfe einer Spracherkennung erkannt wird. Es wird dann die akustische Darbietung gestoppt und die Testperson erhält Gelegenheit, den gerade gehörten Satz oder Halbsatz zu bewerten. Anschließend kann optional auch noch ein Freitext-Kommentar ergänzt werden, um einem Produzenten oder Autoren zusätzliche wertvolle Informationen für eine Verbesserung des Abschnitts oder einer Passage zu geben. Die Angabe eines Skalenwerts benötigt nur wenig Zeitaufwand, während ein Freitextkommentar spezifischer individuelle Eindrücke und Reaktionen einer Testperson wiedergeben kann. Wie bereits zum Teil erwähnt, kann ein Zustandssensorsignal, welches Informationen hinsichtlich einer unbewussten Bewertung umfasst, eine Lesegeschwindigkeitsmessung, eine Scrolltrackingbewertung, einen Pulswert oder eine Augenbewegung umfassen.
Ein Pulswert gibt Auskunft über den Erregungszustand einer Person. Ein hoher Pulswert kann zum Beispiel einen Anhaltspunkt liefern, dass eine Testperson einen aktuell rezipierten Abschnitt sehr spannend findet. Ein niedriger Pulswert weist eher darauf hin, dass die Testperson sich bei der Rezeption gerade langweilt. Ähnlich kann auch eine Augenbewegung eine emotionale Anteilnahme der Testperson abbilden.
Bei der Messung der Lesegeschwindigkeit lässt eine niedrige Lesegeschwindigkeit eher auf einen langweiligen Abschnitt schließen, während eine hohe Lesegeschwindigkeit darauf hindeutet, dass die Testperson von dem rezipierten Inhalt gefesselt ist. Hierbei ist insbesondere das Verhältnis einer aktuell gemessenen Lesegeschwindigkeit zu einer Normalgeschwindigkeit einer Testperson relevant. Liegt eine Lesegeschwindigkeit erheblich niedriger als die Normal- oder Durchschnittsgeschwindigkeit der betreffenden Person, so kann dies auch auf einen schwerverständlichen Text hindeuten. Eine Beschleunigung des Lesevorgangs dagegen lässt eher auf eine spannende Textstelle schließen, während ein Abbremsen des Leseflusses eher eine langweilige Textstelle vermuten lässt. Es ist nicht auszuschließen, dass die Ableitungen aus dem Verhalten der Testperson nicht auch gegenteilig zu der vorhergehenden Beschreibung sein könnten.
Um ein individuelles Leseverhalten mit den genannten impliziten Bewertungen, wie zum Beispiel Interesse, Langeweile bzw. Unverständnis, verknüpfen zu können, kann zum Beispiel für jede Testperson oder eine Zielgruppe mit Hilfe eines Trainingsprozesses eine Relation zwischen dem Leseverhalten der T estperson oder der Zielgruppe, der die T estperson angehört, und dem Interesse der Testperson bzw. der Zielgruppe ermittelt werden. Die bei dem Trainingsprozess, beispielsweise anhand einer größeren Anzahl von Testfilmen oder Testdrehbüchern ermittelten Relationen können als gelabelte Trainingsdaten abgespeichert werden. Mit den gelabelten Trainingsdaten kann zum Beispiel ein neuronales Netz oder ein anderes System mit künstlicher Intelligenz erzeugt werden. Die gelabelten Trainingsdaten weisen als Eingangsvektor eine Mehrzahl von Messgrößen, wie zum Beispiel die Lesegeschwindigkeit und einen Brems- oder Beschleunigungswert des Leseverhaltens auf. Als Ausgangsvektorweisen die gelabelten Trainingsdaten Parameterwerte für einzelne Emotionen oder psychische Zustände, wie zum Beispiel Werte für Langeweile, Interesse, Verständnis usw. auf. Soll der Zeitaufwand für die Testperson gering gehalten werden, so können auch während des eigentlichen Tests erfasste Eingabesignale sowie Zustandssensorsignale ausgewertet und sozusagen in Echtzeit zur Ermittlung des gesuchten Zusammenhangs zwischen der Lesegeschwindigkeit bzw. dem Leseverhalten und einer impliziten Bewertung der Testperson vorzugsweise auch wieder mit Hilfe eines neuronalen Netzwerks oder ein anderes System mit künstlicher Intelligenz (abgekürzt mit Kl) genutzt werden. Bei dieser Version werden die Trainingsdaten quasi während des Betriebs erzeugt, so dass das neuronale Netz bzw. das Kl-System im Verlauf eines Testprozesses immer weiter verbessert wird.
Bei einem Scrolltracking kann ein langsames Scrollen auf eine langsame Lesegeschwindigkeit hinweisen und ein schnelleres Scrollen auf eine erhöhte Lesegeschwindigkeit hindeuten. Auch kann ein Nach-oben-Scrollen, um einen Absatz oder Unterabsatz erneut zu lesen, Rückschlüsse auf ein Interesse an einem Text oder einem bestimmten Absatz zulassen. Es könnte ebenfalls Rückschlüsse auf eine schwer verständliche Passage zulassen. Die genannten Muster können mit Hilfe einer künstlichen Intelligenz mit Bewertungsgrößen korreliert werden. Beispielsweise werden Werte der Messgrößen des unbewussten Verhaltens der Testperson mit einer Skala von Beurteilungswerten korreliert. Die Beurteilungswerte können zum Beispiel ein Maß für das Interesse, die Zustimmung, die empfundene Spannung oder Faszination oder ähnliches darstellen. Um ein neuronales Netzwerk zu trainieren, können in einem Trainingsprozess die Verhaltensmuster der Testperson oder einer Zielgruppe ermittelt werden und für einen Eingangsvektor genutzt werden. Ein solcher Eingangsvektor kann als Parameter zum Beispiel eine Scrollgeschwindigkeit und eine Scroll-Richtung umfassen. Als Ausgangsvektor für ein neuronales Netz können Parameterwerte für das Ausmaß des Interesses, die Zustimmung, die empfundene Spannung und die Faszination ermittelt werden. Im Rahmen des Trainingsverfahrens gibt die Testperson hierzu beispielsweise ihre Emotionen explizit an, so dass die Trainingsdaten als Referenz dienen können. Nachdem das neuronale Netz mit den Trainingsdaten trainiert wurde, kann es anschließend selbständig die Emotionen einer Testperson, der Zielgruppe oder einer ganz spezifischen Testperson ermitteln.
In einer Variante des erfindungsgemäßen Verfahrens zur Korrektur eines Filmvorprodukts werden bei dem Schritt des Erstellens des Filmprodukts einzelne (dem Filmvorprodukt zugeordnete) Abschnitte geändert oder aussortiert, die gemäß einem vordefinierten Bewertungsmaßstab eine ungünstige Bewertung erhalten haben. Der Bewertungsmaßstab kann dabei z. B. vorab auch im Hinblick auf die beabsichtigten Wirkungen festgelegt werden. So kann beispielsweise eine Szene, die zu starke Angst erzeugt, in einem Kinderfilm als schlecht bewertet werden, wogegen bei einem Horrorfilm für Erwachsene diese Wirkung gerade beabsichtigt wäre.
Vorteilhaft kann so auf einer objektiven Grundlage ohne aufwändige Hinzuziehung von Experten auf einfache Art und Weise ohne großen Aufwand eine Anpassung des Filmvorprodukts und damit auch des späteren Filmprodukts erfolgen, um die Erfolgsaussichten bei der Zielgruppe zu verbessern. Mit der bekannten Zugehörigkeit einer Person zu einer Zielgruppe kann auch die Zielgruppe eines Filmprodukts feiner bestimmt werden, woraus sich dann weitere Optimierungen ableiten lassen können.
Die Änderung eines Abschnitts kann zum Beispiel aber auch das Festlegen eines geeigneten Blickwinkels für die Bildaufnahme eines Abschnitts umfassen. Neben inhaltsbezogenen Änderungen können also auch Änderungen in der Darstellung bzw. bildlichen Aufnahme einer Szene durchgeführt werden, um die Attraktivität eines Filmabschnitts für die Zielgruppe zu erhöhen.
In einer besonders effektiven Variante werden die auf Eingabesignalen und Zustandssensorsignalen beruhenden unterschiedlichen Bewertungen einer Testperson zu einer Gesamtbewertung eines ganzen Texts (oder jeder anderen Art eines Filmvorprodukts) kombiniert. Die Gesamtbewertung kann zum Beispiel ein Schaubild einer oder mehrerer Bewertungskurven in Abhängigkeit von der Zeit bzw. der Position im Text (oder jeder anderen Art eines Filmvorprodukts) umfassen. Die einzelnen Bewertungskurven können zum Beispiel unterschiedlich markiert bzw. gefärbt sein. Es kann aber auch in der Gesamtbewertung für eine Testperson jeweils eine einzige durch gewichtete Kombination, beispielsweise Addition, der unterschiedlich entstandenen Bewertungen ermittelte Bewertungskurve erzeugt werden. Die Gesamtbewertung kann dann Bewertungskurven einer Mehrzahl von Testpersonen umfassen, die in einem gemeinsamen Schaubild „übereinandergelegt“ dargestellt werden. Bei dieser Variante können widersprüchliche Nutzermeinungen anschaulich dargestellt werden. Die unterschiedlichen Kurven können auch zu einer einzigen gemeinsamen Kurve kombiniert werden. Bei dieser Ausgestaltung können verbesserungswürdige Abschnitte aufgrund der Eindeutigkeit und Einfachheit der Darstellung besonders leicht erkannt werden. Es können auch Testergebnisse einer potentiellen Testperson mit zielgruppenspezifischen Referenzwerten verglichen werden, um zu ermitteln, ob eine potentielle Testperson für einen zukünftigen Test oder eine zukünftige Serie von Tests ausgewählt werden soll. Wenn man die Bewertungen der unterschiedlichen Testpersonen realitätsnah gewichten möchte, ist es vorteilhaft zu wissen, welche Qualität die Bewertungen der einzelnen Testpersonen haben, welchen Geschmack und welche Affinität die Testpersonen zu einzelnen Genres der Filmkunst haben. Bei letzteren Kriterien ist insbesondere relevant, wie stark sich die Testperson von der Zielgruppe unterscheidet. Wenn sich beispielsweise das Interesse und das Stilempfinden der Testperson und der Zielgruppe hinsichtlich eines bestimmten Genres sehr stark unterscheiden, so wird man die Bewertung der Testperson entsprechend schwach gewichten. Die Qualität einer Bewertung lässt sich zum Beispiel durch eine individuelle Auswertung einer Bewertung einer Testperson von einer Anzahl, beispielsweise 100, Referenzfilmen herausfinden. Die Bewertungen der Referenzfilme durch die Testperson können zum Beispiel mit den Bewertungen durch die Zielgruppe oder eine oder mehrere qualifizierten auswertenden Personen verglichen werden. Die Gewichtung der Bewertung der Testperson hängt dann ab von der Ähnlichkeit der Bewertungen der Testperson und der auswertenden Personen bzw. der Zielgruppe.
Die Gewichtung kann auch anhand von ausführlichen textbasierten Bewertungen der Referenzfilme durch die Testpersonen erfolgen. Bei dieser Variante beurteilen Fachleute, beispielsweise Produzenten, die Qualität der ausführlichen Bewertungen und können so eine Gewichtung besonders fundiert allerdings auch mit entsprechendem Zusatzaufwand ermitteln.
Die Erfindung wird im Folgenden unter Hinweis auf die beigefügten Figuren anhand von Ausführungsbeispielen noch einmal näher erläutert. Dabei sind in den verschiedenen Figuren gleiche Komponenten mit identischen Bezugsziffern versehen. Die Figuren sind in der Regel nicht maßstäblich. Es zeigen:
Figur 1 ein Flussdiagramm, welches ein Verfahren zur Prüfung eines Drehbuchs gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht,
Figur 2 eine schematische Darstellung einer visuellen Bewertung eines Drehbuchs gemäß einem Ausführungsbeispiel der Erfindung,
Figur 3 eine schematische Darstellung einer zeilenweisen Bewertung eines Drehbuchs gemäß einem Ausführungsbeispiel der Erfindung, Figur 4 ein Beispiel-Schaubild, welches die Zustimmung einer Testperson quantifiziert,
Figur 5 ein Beispiel-Schaubild, welches eine Lesegeschwindigkeit einer Testperson veranschaulicht,
Figur 6 eine schematische Darstellung einer auf eine Audioübertragung basierenden Bewertung eines Drehbuchs,
Figur 7 eine schematische Darstellung einer Bewertung eines Filmprototypen,
Figur 8 beispielhafte Schaubilder zur Veranschaulichung der Beziehung zwischen Spannungswerten und physiologischen Messwerten,
Figur 9 ein beispielhaftes Schaubild zur Veranschaulichung von während einer Vorführung eines Filmvorprodukts an Testpersonen gemessenen physiologischen Größen,
Figur 10 ein Schaubild mit auf Basis der in Figur 9 gezeigten physiologischen Größen ermittelten Spannungswerten,
Figur 11 eine schematische Darstellung einer Filmvorproduktprüfeinrichtung gemäß einem Ausführungsbeispiel der Erfindung,
Figur 12 eine schematische Darstellung einer Bewertungseinrichtung einer Filmvorproduktprüfeinrichtung gemäß einem Ausführungsbeispiel der Erfindung,
Figur 13 eine schematische Darstellung von Eingangsvektoren und Bewertungsvektoren für eine Kl-basierte Bewertung eines Filmvorprodukts gemäß einem Ausführungsbeispiel der Erfindung,
Figur 14 einen Software-Kit zur Realisierung des erfindungsgemäßen Verfahrens zur Prüfung eines Filmvorprodukts.
In Figur 1 ist ein Flussdiagramm 100 gezeigt, welches ein Verfahren zur Korrektur eines Filmvorprodukts beschreibt. Bei dem Schritt 1.1 wird zunächst ein Treatment T, d.h. eine kurze Zusammenfassung einer Filmhandlung als eine erste schriftliche Vorstufe eines Drehbuchs erzeugt. Diese Zusammenfassung wird in dem in Figur 1 veranschaulichten Ausführungsbeispiel als Filmvorprodukt FVP genutzt. Bei dem Schritt 1.11 wird der Inhalt des T reatments T über eine Anzeigeeinheit, beispielsweise einen Bildschirm eines Computers als Text angezeigt. Dabei werden einer Mehrzahl von Testpersonen jeweils Abschnitte A der Zusammenfassung getrennt angezeigt. Ein Abschnitt kann beispielsweise eine Bildschirmseite, aber auch mehr oder weniger als eine Bildschirmseite umfassen. Die Testperson kann sich in dem Text durch eine Scrollbewegung hin- und herbewegen. D. h. die Aufteilung des Filmvorprodukts erfolgt hier im Zusammenhang mit der Präsentation des Textes.
Die Testpersonen führen dann bei dem Schritt 1.111 jeweils nach dem Lesen eines Abschnitts eine Bewertung B durch Eingeben einer Bewertungsinformation durch. Beispielsweise steuern sie eines der in Figur 2 gezeigten, am unteren Rand des Bildschirms dargestellten Bedienfelder (unterschiedlich schraffiert) an, um eine Einschätzung der Qualität des Abschnitts abzugeben. Dabei kann zum Beispiel eine gepunktete Schraffur (siehe Feld 3a in Figur 2) bedeuten, dass der Abschnitt der bewertenden Person völlig missfällt. Eine mit vertikalen Strichen gezeichnete Schraffur (siehe Feld 3b in Figur 2) kann bedeuten, dass der Abschnitt entweder noch verbesserungsbedürftig ist, aber brauchbare Ansätze enthält oder dass der Abschnitt nicht verständlich (genug) ist, und eine mit horizontalen Strichen gezeichnete Schraffur (siehe Feld 3c in Figur 2) bedeutet, dass der bewertenden Testperson der gelesene Abschnitt gut gefällt. Anstatt Schraffierungen können selbstverständlich auch alternative Kennzeichnungen für die einzelnen Bedienfelder genutzt werden, wie zum Beispiel unterschiedliche Farben oder ähnliches.
Der Schritt 1.1V deutet an, dass die beiden vorhergehenden Schritte 1.11 und 1.111 solange wiederholt werden, bis der Text beendet ist. D.h. für den Fall, dass die Testperson noch nicht am Ende des Textes angekommen ist, wird zu dem Schritt 1.11 zurückgekehrt. Falls bei dem Schritt 1.1V der letzte Abschnitt des Textes bewertet wurde, wird zu dem Schritt 1.V übergegangen.
Bei dem Schritt 1.V erfolgt dann eine Gesamtauswertung GA der von einer Mehrzahl von Testpersonen durchgeführten Bewertungen. Dabei können zum Beispiel die Bewertungen einzelner Testpersonen sehr unterschiedlich gewichtet werden. Die Gewichtungen können zum Beispiel anhand einer vorab stattfindenden Testphase bzw. einer Lernphase mit Hilfe eines maschinellen Lernverfahrens ermittelt werden. Dabei werden einer Testperson eine Mehrzahl von Testdrehbüchern zur Bewertung gegeben. Anschließend wird ermittelt, wel- ehe „Qualität“ die Bewertung aufweist. Die „Qualität“ kann zum Beispiel anhand des späteren tatsächlichen Erfolgs des auf das Testdrehbuch zurückgehenden Films ermittelt werden. D.h., stimmt die Einschätzung der Testperson mit einer Einschätzung des tatsächlichen Publikums überein, so kann von einer qualitativ hochwertigen Bewertung ausgegangen werden. Weitere Anhaltspunkte für eine Gewichtung sind, ob die Testperson einen ähnlichen Geschmack wie die Zielgruppe hat bzw. eine grundsätzlich positive Einstellung zu dem Themengebiet eines Films hat.
Anhand der abschnittsweisen Bewertung der Zusammenfassung kann nun bei dem Schritt 1 .VI eine konkrete Aussage über einzelne Abschnitte des späteren Filmprodukts sowie dessen Gesamtqualität getroffen werden. Damit können die Erfolgsaussichten des Filmprodukts bereits in einer frühen Phase der Filmproduktion geschätzt werden und auf diese Weise kann das Risiko eines unnötigen Ressourceneinsatzes bei einer Filmproduktion reduziertwerden. Weiterhin werden bei dem Schritt 1 .VI auf Basis der Bewertungsergebnisse Korrekturmaßnahmen durchgeführt, um das Filmvorprodukt und damit die Erfolgschancen des späteren Filmprodukts zu verbessern.
In Figur 2 wird eine schematische Darstellung einer visuellen Bewertung eines Drehbuchs gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht. Es wird ein Bildschirm 1 gezeigt, auf dem ein Abschnitt eines T extes einer Zusammenfassung eines Films mit einer Mehrzahl von Zeilen 2 angezeigt wird. Eine bewertende Testperson liest den Abschnitt und wählt dann mit Hilfe einer Maus in einem am unteren Rand des Bildschirms dargestellten rechteckigen Bewertungsfeld 3 eines der drei unterschiedlich farbigen Felder 3a, 3b, 3c aus, um eine Bewertung des gelesenen Abschnitts abzugeben. In Figur 2 sind die unterschiedlichen Farben der einzelnen Felder 3a, 3b, 3c durch unterschiedliche Texturen symbolisiert. Anschließend wird automatisch der nächste Abschnitt angezeigt, den die bewertende Testperson wiederum durchliest. Nach dem Durchlesen des nächsten Abschnitts gibt sie erneut eine Bewertung ab usw.
In Figur 3 ist eine schematische Darstellung einer zeilenweisen Bewertung eines Drehbuchs gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht. Ähnlich wie bei dem in Figur 2 gezeigten Ausführungsbeispiel wird auf einem Bildschirm 1 ein Abschnitt einer Zusammenfassung einer Vorform eines Drehbuchs mit einer Mehrzahl von Zeilen 2, 2a, 2b angezeigt. Anders als bei dem in Figur 2 gezeigten Ausführungsbeispiel werden bei dem in Figur 3 gezeigten Ausführungsbeispiel einzelne Zeilen 2a, 2b angewählt und durch eine farbige Markierung bewertet. Beispielsweise wurde die dritte Zeile 2a mit einer Farbe, welche in Figur 3 durch eine gepunktete Fläche 4a symbolisiert ist, markiert und damit mit einer mittleren Bewertung versehen, was bedeutet, dass der Inhalt bereits vielversprechende Ansätze zeigt, aber noch verbesserungsbedürftig ist. Dagegen wird eine fünfte Zeile 2b mit einem weißen Farbbalken 4b markiert, was bedeutet, dass diese Zeile der bewertenden Person sehr gut gefällt. Bei der in Figur 3 gezeigten Variante kann eine Zusammenfassung durch die weitere Unterteilung der Abschnitte in Teilabschnitte (nämlich hier in einzelne Zeilen) sehr fein aufgelöst bzw. sehr stark lokalisiert bewertet werden, so dass die Autoren ein sehr präzises Feedback erhalten und effektiver lokale Korrekturen am Drehbuch vornehmen können als bei einer nur abschnittsweisen Bewertung (ohne weitere Unterteilung in Teilabschnitte), wie sie bei dem in Figur 2 gezeigten Ausführungsbeispiel realisiert wurde.
In Figur 4 ist ein Schaubild 5 gezeigt, welches eine Bewertungskurve 5a darstellt. Dabei wird ein Wert G in Abhängigkeit von einem Zeilenindex z, welcher eine Zeilennummer eines Abschnitts oder Teilabschnitts angibt, dargestellt. Der Wert G repräsentiert, in welchem Ausmaß ein Abschnitt A, ein Teilabschnitt oder ein Satz einer bewertenden Person gefallen hat. Nach oder während dem Lesen des Abschnitts oder nach oder während dem Lesen eines gesamten Textes zeichnet die bewertende Person eine Kurve, welche Informationen darüber gibt, welche Teilabschnitte der Abschnitte ihr besser oder schlechter gefallen haben. Die Eingabe des Werts G kann zum Beispiel auf einem Tablet durch einen Light-Pen oder durch Berühren eines als Touchscreen ausgebildeten Bildschirms des Tablets mit einem Benutzerfinger in einem für die Bewertung auf dem Bildschirm des Tablets angezeigten Bewertungsfeld erfolgen.
In Figur 5 ist ein Schaubild 6 gezeigt, dessen Kurve 6a anders als die in Figur 4 gezeigte Kurve 5a während des Durchlesens eines Drehbuchs automatisiert erfasst wurde. Dabei wird eine Lesegeschwindigkeit V eines Lesers in Abhängigkeit von der Zeile bzw. Zeilennummer z ermittelt. Diese Lesegeschwindigkeit kann zum Beispiel auf Basis eines Zeitintervalls zwischen den Bewertungen der einzelnen Abschnitte oder Zeilen ermittelt werden. Sie kann auch anhand einer Scrollgeschwindigkeit der bewertenden Person ermittelt werden. Um die ermittelte Kurve 6a einordnen zu können, kann vorab anhand von Testmaterial eine durchschnittliche Lesegeschwindigkeit Vm der bewertenden Testperson ermittelt werden. In den Abschnitten oder Zeilen z, in denen die Lesegeschwindigkeit v der Testperson deren Durchschnittsgeschwindigkeit Vm übertrifft, kann davon ausgegangen werden, dass diese Abschnitte dem Leser besonders gefallen bzw. dass der Leser diese Abschnitte besonders spannend findet. Demgegenüber sind Abschnitte oder Zeilen, für die der Leser besonders lange Zeit benötigt, als eher uninteressant oder langweilig oder schwer verständlich einzuschätzen. Dies könnte aber ggf. jeweils auch genau das Gegenteil darstellen, wie oben bereits erwähnt. Anhand der ermittelten Lesegeschwindigkeit Vm kann ein Bewertungsfaktor ermittelt werden, welcher den Grad einer Zustimmung des Lesers zu einem Teil eines Abschnitts angibt. Bei der in FIG 5 veranschaulichten Vorgehensweise erhält man eine automatisierte Bewertung, die zum Beispiel zusätzlich zu einer aktiven Bewertung, wie sie in FIG 2 bis Figur 4 veranschaulicht wurde, erfolgen kann oder auch alternativ angewendet werden kann, wenn der Leser nicht mit einer aktiven Mitarbeit belastet werden soll. Dieser Graph kann auch automatisch durch Klickauswertungen erstellt werden.
In Figur 6 ist ein Szenario 7 gezeigt, bei dem sich eine bewertende Person 8 (Testperson 8) eine Audioversion eines Drehbuchs über ein akustisches Wiedergabegerät 9 anhört. Die Testperson 8 kann nun akustisch Bewertungen einzelner Abschnitte durch entsprechende mündliche Eingaben vornehmen. Beispielsweise kann das Wiedergabegerät 9 ein Text-to- Speech-to-Text-Modul aufweisen, welches Sprache in Text umwandeln kann und umgekehrt. Wird nun der Text vorgelesen, so wird nach jedem Abschnittsende der Nutzer s nach einem mündlichen Feedback gefragt. Beispielsweise gibt die Testperson 8 einen Wert auf einer Skala von 0 bis 10 an. Nach Abgabe der gesprochenen Zahl springt das System weiter zum Vorlesen des nächsten Abschnitts. Ähnlich kann auch ein mündlicher Befehl zum Stoppen nach einem einzelnen Satz erfolgen, so dass auch einzelne gerade gehörte Sätze bewertet werden können. Alternativ oder zusätzlich kann am Ende eines Absatzes oder auch eines einzelnen Satzes ein gesprochener Freitextkommentar aufgenommen werden, mit dem der jeweilige Absatz bzw. einzelne Satz bewertet wird. In Figur 6 ist außerdem ein Taster 41 gezeigt, den die Testperson für eine bewusste Bewertung betätigen kann. Zudem trägt die Testperson an ihrem Arm einen Pulssensor 42, mit dem Zustandssensordaten ZS gewonnen werden, die Informationen für eine unbewusste Bewertung darstellen. Die Zustandssensordaten ZS sowie die bewussten Bewertungsdaten E werden an eine Filmvorproduktprüfeinrichtung 20 (im Detail siehe FIG 8) übermittelt, welche eine Auswertung auf Basis der erfassten Daten E, ZS vornimmt und auch das Wiedergabegerät 9 mit Hilfe von Steuersignalen S ansteuert, um die Wiedergabe mit der Bewertungshandlung der Testperson zu synchronisieren.
In Figur 7 ist eine schematische Darstellung einer Wiedergabeeinrichtung 10 einer Filmvorproduktprüfeinrichtung für einen Filmprototypen veranschaulicht. Der Filmprototyp wird auf einem Bildschirm 10a der Wiedergabeeinrichtung 10 der bewertenden Testperson (nicht gezeigt) vorgeführt. Eine akustische Wiedergabe erfolgt durch zwei an den Seiten des Bildschirms 10a angeordnete Lautsprecher 10b. Die bewertende Testperson sieht sich eine Szene 11 an und wählt zur Bewertung in einem am unteren Rand des Bildschirms 10a eingeblendeten Bewertungsfeld 3 ein farbiges bzw. in Figur 7 schraffiert gezeichnetes Teilfeld 3a, 3b, 3c aus, ohne dass hierbei der Film gestoppt werden muss. Diese Bewertung kann auch über eine externe Eingabeeinheit initiiert werden. Alternativ ist auch eine akustische Bewertung ähnlich wie bei dem in Figur 6 gezeigten Ausführungsbeispiel möglich.
Zusätzlich werden mit Hilfe einer an dem Bildschirm 10a angeordneten Kamera 12 sowie einem Mikrofon 12a Reaktionen der bewertenden Testperson, wie zum Beispiel Augenbewegungen, bildlich erfasst. Die erfassten Augenbewegungen fließen mit in die Auswertung des Filmprototyps ein. Beispielsweise kann anhand einer Geschwindigkeit einer Augenbewegung ein Spannungszustand der bewertenden Testperson ermittelt werden und auf diese Weise die Wirkung des Films auf die bewertende Testperson ermittelt werden. Ebenso kann auch hier eine Messung des Pulses der bewertenden Testperson während des Abspielens des Filmprototyps erfolgen und anhand der Pulsfrequenz darauf geschlossen werden, wie spannend die bewertende Testperson eine Filmszene einschätzt. Weitere Messwerte können die Körpertemperatur sowie die Hautfeuchtigkeit, welche zum Beispiel über den elektrischen Widerstand der Haut gemessen werden kann, umfassen.
Die Messungen der Physiologie der bewertenden Testperson können beispielsweise durch Vergleich mit Referenzwerten ausgewertet werden. Dazu werden der bewertenden Testperson vorab Referenzfilme gezeigt, deren Szenen die Person explizit bewertet. Gleichzeitig werden die physiologischen Größen, wie zum Beispiel die Augenbewegung, die Pulsfrequenz, die Körpertemperatur und die Hautfeuchtigkeit gemessen und in Beziehung mit der subjektiven Bewertung der Szenen durch die Person gebracht. Auf diese Weise kann ein mathematischer Zusammenhang zwischen dem Spannungsempfinden und den erfassten physiologischen Größen der Testperson ermittelt werden, welcher dann bei der Bewertung eines Filmprototyps zur Auswertung genutzt werden kann. Die unterschiedlichen Testgrößen bzw. damit zusammenhängenden Teilergebnisse werden schließlich wieder zu einem Gesamtbewertungsergebnis kombiniert. Eine solche Kombination kann zum Beispiel eine gewichtete Addition der einzelnen Bewertungsgrößen umfassen. Die vorbeschriebene Vorgehensweise soll mit Hilfe der folgenden Figuren 8 bis 10 im Detail veranschaulicht werden.
In den Figuren 8 bis 10 sind Schaubilder gezeigt, welche die vorbeschriebenen Schritte zur Ermittlung von Spannungswerten bzw. Werten, welche das Spannungsempfinden einer Person repräsentieren, anhand von physiologischen Messungen illustrieren. In Figur 8 sind in einem Schaubild physiologische Messwerte, wie zum Beispiel die Augenbewegung Fa, die Pulsfrequenz Fp und die Körpertemperatur Tk, mit Referenzwerten ESR eines Spannungsempfindens graphisch in Beziehung gesetzt. Die angegebenen Werte sind nur beispielhaft und sollen keine einschränkende Bedeutung haben. Diese Referenzwerte ESR können zum Beispiel für jede Testperson einmalig erfasst werden und in einer Datenbank abgespeichert werden.
In Figur 9 sind in einem Schaubild die Messwerte der vorgenannten physiologischen Größen der Augenbewegung Fa, der Pulsfrequenz Fp und der Körpertemperatur Tk einer T est- person in Abhängigkeit von einer Zeilennummer Z graphisch dargestellt. Die in Figur 9 gezeigten Messwerte Fa, Fp, Tk werden nun während einer Vorführung eines Filmvorprodukts vor einer Testperson gemessen.
In Figur 10 sind in einem Schaubild sowohl einzelne Spannungskurven ESa, ESp, ESk für die Augenbewegung Fa, die Pulsfrequenz Fp und die Körpertemperatur Tk als auch eine durch Addition der einzelnen Spannungskurven erzeugte kombinierte gestrichelt gezeichnete Spannungskurve ESG für die in dem Schaubild der Figur 9 erfassten Kurven physiologischer Größen dargestellt.
In Figur 11 ist eine Filmvorproduktprüfeinrichtung 20 gemäß einem Ausführungsbeispiel der Erfindung schematisch dargestellt. Die Filmvorproduktprüfeinrichtung 20 ist mit einer Wiedergabeeinrichtung 10 verbunden. Die Wiedergabeeinrichtung 10 umfasst einen Bildschirm (siehe in Figur 2, 3), mit dem eine Darstellung eines Filmvorprodukts für einen ausgewählten Kreis von Testpersonen ermöglicht wird und der eine Touchscreenfunktion aufweist, um Eingaben E einer Testperson zu empfangen.
Die Filmvorproduktprüfeinrichtung 20 weist hier eine Strukturierungseinheit 21 zum Aufteilen des Filmvorprodukts in einzelne Abschnitte auf. Von der Strukturierungseinheit 21 werden Strukturierungssignale S an die Wiedergabeeinrichtung 10 übermittelt, um das wiedergegebene Filmvorprodukt in einzelne Abschnitte zu strukturieren. Teil der Filmvorproduktprüfeinrichtung 20 ist auch eine Erfassungseinheit 22 zum abschnittsweisen Erfassen von Reaktionen und/oder Beurteilungen der Testpersonen während der Rezeption des Filmvorprodukts durch die Testpersonen. Die Erfassungseinheit 22 empfängt also Eingabesignale E von der Wiedergabeeinrichtung 10 sowie Zustandssensorsignale ZS von Zustandssensoren (nicht gezeigt), die die bereits genannten Zustandsinformationen über die Testperson erfassen. Die von der Erfassungseinheit 22 aufgenommenen Eingabesignale E und Zustandssensorsignale ZS, welche Informationen über Reaktionen und Beurteilungen der Testperson umfassen, werden von einer Bewertungseinheit 23 ausgewertet, wobei eine Bewertung B der einzelnen Abschnitte auf Basis der erfassten Reaktionen und/oder Beurteilungen der Testpersonen 8 erfolgt.
Die Bewertungsdaten B werden an eine Gesamtbewertungseinheit 23a übermittelt, die in dem gezeigten Ausführungsbeispiel ebenfalls Teil der Filmvorproduktprüfeinrichtung 20 ist. Die Gesamtbewertungseinheit 23a erzeugt ein Gesamtergebnis durch eine gewichtete Kombination der Einzelbewertungen B. Die Gewichtung kann zum Beispiel auf Basis von Konsistenzwerten erfolgen, die bei der Berechnung der Bewertungen ebenfalls mitberechnet wurden und Teil der Bewertungsergebnisse B sein können und eine Aussage darüber zulassen, ob die unbewussten Bewertungen ZS und die bewussten Eingaben E einer Testperson konsistent sind. Je konsistenter diese Bewertungsinformationen sind, desto stärker kann eine Einzelbewertung gewichtet werden. Es können auch andere Einflussfaktoren in die Gewichtung mit einfließen, wie zum Beispiel ein Wert für die Kompetenz der Testperson oder die Ähnlichkeit der Ansichten der T estperson mit einer Zielgruppe.
Teil der Filmvorproduktprüfeinrichtung 20 ist auch eine Steuerungseinheit 43, um mit den einzelnen Einheiten 21 , 22, 23, 23a der Filmvorproduktprüfeinrichtung 20 zu kommunizieren und diese anzusteuern. Das Gesamtbewertungsergebnis wird an eine Korrektureinheit 24 übermittelt, die dazu genutzt wird, das Filmvorprodukt in Abhängigkeit von der Bewertung zu modifizieren.
In Figur 12 ist eine Bewertungseinheit 23 einer Filmvorproduktprüfeinrichtung gemäß einem Ausführungsbeispiel der Erfindung, wie sie zum Beispiel in Figur 11 gezeigt ist, veranschaulicht. Die Bewertungseinheit 23 weist eine Dateneingangsschnittstelle 25 auf, mit der physiologische Messwerte ZS sowie Eingabesignale E empfangen werden.
Die Messwerte ZS und Eingabesignale E werden an eine Kl-Bewertungseinheit 26 (Kl = künstliche Intelligenz) übermittelt. Die Kl-Bewertungseinheit 26 weist eine neuronale Netzeinheit 27 auf, die auf Basis eines Eingabevektors V1 der physiologischen Messwerte ZS sowie der Eingabesignale E einen Bewertungsvektor B, welcher Informationen über eine Bewertung eines Filmvorprodukts umfasst, ermittelt. Beispielsweise umfasst der Eingabevektor V1 der Messungen eine Vielzahl von Messwerten, wie zum Beispiel die Lesegeschwindigkeit V, den Pulsschlag P, die Hautfarbe H, Hautfeuchtigkeit HF, die Geschwindigkeit V der Augenbewegungen, die Scrollgeschwindigkeit VS, ein Spektrum S der akustischen Äußerungen einer Testperson usw. Ein solcher Eingabevektor V1 ist in Figur 13 gezeigt. Der ebenfalls in Figur 13 gezeigte Bewertungsvektor B umfasst zum Beispiel Werte für die einzelnen Abschnitte A1 ... A100 oder Zeilenabschnitte auf einer Skala von 1 bis 10, wobei 1 für sehr negativ und 10 für exzellent steht.
Die Kl-Bewertungseinheit 26 weist neben der neuronalen Netzeinheit 27 eine Datenbank
28 und eine Trainingseinheit 29 auf. Mit Hilfe der Trainingseinheit 29 wird das neuronale Netzwerk für die bzw. der neuronale(n) Netzeinheit 27 trainiert. Bei dem Trainingsprozess können z. B. gelabelte Trainingsdaten genutzt werden. Diese umfassen Referenzdaten von Paaren von Eingangsvektoren V1 und Bewertungsvektoren B, welche z. B. auch unter Nutzung der Testpersonen oder der Zielgruppe anhand von Testfilmen bzw. entsprechenden Filmvorprodukten erzeugt wurden. Die Strukturen des neuronalen Netzes, wie zum Beispiel Verbindungen und Gewichtungen, werden dann derart geändert, dass durch das neuronale Netz in Antwort auf einen Eingangsvektor der Referenzdaten ein zugehöriger Bewertungsvektor B der Referenzdaten erzeugt wird. Das trainierte neuronale Netzwerk wird dann von der neuronalen Netzeinheit 27 beispielsweise zur Auswertung des Messvektors emotionalen Messwerte einer Testperson genutzt. Anders ausgedrückt, trainiert die Trainingseinheit
29 anhand einer Vielzahl von Trainingsdaten, die realitätsnah ermittelte Eingabevektoren V1 sowie Bewertungsvektoren B umfassen und in der Datenbank 28 gespeichert sind, ein neuronales Netzwerk, welches nach dem Abschluss des Trainings an die neuronale Netzeinheit 27 übermittelt wird, die nun auf Basis von Messwerten der Testperson einen Bewertungsvektor erzeugt. Die Datenbank 28 kann auch als externe Datenbank ausbildet sein und über ein Datennetz mit der Trainingseinheit 29 verbunden sein. Ebenso könnte aber auch die Trainingseinheit 29 extern angeordnet sein, und das trainierte neuronale Netzwerk wird z. B. über ein Datennetzwerk an die Kl-Bewertungseinheit 26 übergeben.
Die Bewertung B durch die Kl-Bewertungseinheit 26, insbesondere die neuronale Netzeinheit 27, kann auch eine Konsistenzprüfung umfassen. Dabei wird geprüft, ob die Werte der Zustandssignale ZS mit den durch bewusste Bewertung erzeugten Eingaben E konsistent sind. Wird zum Beispiel ein mit einer positiven Emotion verknüpfter Zustand ZS gemessen und zeigt die bewusste Bewertung E eine ablehnende Haltung, so kann vorsichtshalber die betreffende Bewertung des aktuellen Abschnitts aufgrund der Widersprüchlichkeit entweder ganz verworfen werden oder zumindest schwächer gewichtet werden. Die Bewertungseinheit 23 kann noch weitere Einheiten aufweisen, beispielsweise eine Textanalyseeinheit, mit der Texteingaben auf ihren Bedeutungsgehalt analysiert werden und anhand der Bedeutung eine quantitative Bewertungsgröße erzeugt wird
In Figur 14 ist schematisch eine modulare Softwarelösung gezeigt, welche um Hardwarekomponenten erweiterbar ist. Die Software 30 umfasst ein Serverprogramm 31 , welches auf einem Rechner, z. B. einer Filmproduktionsfirma, oder in der Cloud gespeichert ist. Weiterhin umfasst die Software 30 auch eine App 32, welche jeweils auf den Smartphones der T estpersonen gespeichert ist. Soll nun ein Filmvorprodukt mit dem erfindungsgemäßen Verfahren geprüft werden, so wird mit Hilfe des Serverprogramms 31 das Filmvorprodukt FVP an die Smartphones der Testpersonen übermittelt. Die Testpersonen können nun mit Hilfe der App 32 das Filmvorprodukt FVP ansehen oder anhören und Reaktionen mit entsprechenden Zustandssignalen ZS und Beurteilungen mit entsprechenden Eingabesignalen E erzeugen. Die App 32 weist Programmteile auf, mit denen Sensoren des Smartphones zur Erfassung der Reaktionen und Beurteilungen angesteuert werden. Die App 32 kann zum Beispiel eine Scrolltrackingfähigkeit bereitstellen. Zudem wird durch die App 32 eine Kamera zur Erfassung von Augenbewegungen oder der Hautfärbung der Testperson genutzt. Als Kamera zur Erfassung der Physiologie einer Testperson kann zum Beispiel eine in ein Smartphone der Testperson integrierte Kamera eingesetzt werden. Weiterhin kann die App 32 auch Fähigkeiten zur Messung der Lesegeschwindigkeit, beispielsweise auf Basis der Augenbewegungen oder der Scrollgeschwindigkeit bzw. des Scrollverhaltens umfassen. Zudem kann die App 32 eine Fähigkeit zur Zuordnung von Messzeitpunkten und/oder Eingabezeitpunkten zu den erfassten Reaktionen und/oder Beurteilungen aufweisen. D.h., es werden bei einer Messung eines mit einer Reaktion verbundenen Signals ZS oder bei einer Erfassung einer Eingabe E, welche im Rahmen einer Übertragung einer Beurteilungsinformation von der Testperson an die App 32 erfasst wird, jeweils die Zeitpunkte der Messung bzw. Eingabe erfasst, und es werden gleichzeitige oder zeitlich sehr nahe beieinanderliegend erfasste Messereignisse einem bestimmten Unterabschnitt oder Handlungsgegenstand eines Abschnitts zugeordnet. Mit der App 32 können auch zufällig bei der Testperson vorhandene, mit Sensoren zur Messung biometrischer Daten ausgestattete Geräte in den Testvorgang eingebunden werden. Zum Beispiel kann mit Hilfe der App 32 eine Sportuhr oder Smartwatch in den Testvorgang mit eingebunden und damit eine Pulsfrequenz oder Hauttemperatur gemessen werden. Die App 32 wandelt vorzugsweise die erfassten Signale in Messwerte oder Eingabetexte um. Das Serverprogramm 31 nimmt die von der App 32 im Rahmen der Beurteilungen und Reaktionen der Testpersonen ermittelten Messwerte und Eingabetexte entgegen und führt eine Auswertung auf Basis der übermittelten Informationen aus, um Bewertungsergebnis- daten B für die einzelnen Abschnitte der Vorübersicht zu erzeugen. Bei der Bewertung werden die von den einzelnen Testpersonen erzeugten Reaktionen und Beurteilungen zu einem Bewertungsergebnis der einzelnen Abschnitte kombiniert. Das Serverprogramm 31 führt auch weitere Prozessierungsschritte, wie zum Beispiel die Ermittlung eines Gesamtprüfergebnisses sowie eine Korrektur der Vorübersicht, des Filmvorprodukts und des Film- produkts aus, um die Erfolgschancen der Filmproduktion zu verbessern.
Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorhergehend detailliert beschriebenen Vorrichtungen lediglich um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedensterWeise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Weiterhin schließt die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht aus, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließen die Begriffe „Einheit“ und „Modul“ nicht aus, dass diese auch aus mehreren, gegebenenfalls auch räumlich getrennten, Untereinheiten bestehen.
Bezugszeichenliste
I Wiedergabeeinheit / Bildschirm
2, 2a, 2b Zeile
3 Bewertungsbereich
3a, 3b, 3c schraffierter Teilbereich
4a, 4b bewertete Zeilen
5 Schaubild einer bewussten Bewertung
5a Gefallen-Kurve
6 Schaubild einer unbewussten Bewertung
6a Augengeschwindigkeitskurve
6b waagrechte Gerade einer mittleren Geschwindigkeit
7 Szenario mit einer akustischen Darbietung eines Filmstoffs
8 Testperson / bewertende Person
9 Wiedergabeeinheit / Audiogerät
10 Wiedergabeeinrichtung
10a Bildschirm/Touchscreen
10b Lautsprecher
I I Filmszene
12 Kamera
12a Mikrofon
20 Filmvorproduktprüfeinrichtung
21 Strukturierungseinheit
23 Bewertungseinheit
23a Gesamtbewertungseinheit
24 Korrektureinheit
25 Eingangsschnittstelle
26 Kl-Bewertungseinheit
27 neuronale Netzeinheit
28 Datenbank
29 Trainingseinheit
30 modulare Software
31 Serverprogramm
32 App
33 Auswertungseinheit
34 Fusionseinheit 41 Taster
42 Pulsmessgerät
43 Steuerungseinheit
A Abschnitt
B Bewertungsvektor
E Eingabesignal
ES Spannungswert
ESa Spannungswert auf Basis der Augenbewegung
ESp Spannungswert auf Basis der Herzfrequenz
ESk Spannungswert auf Basis der Körpertemperatur
ESG gemittelter Spannungswert
ESR Referenzspannungswert
Fa Augenbewegung
Fh Herzfrequenz
FVP Filmvorprodukt
GA Gesamtergebnis
H Hauttemperatur
HF Hautfeuchtigkeit
P Puls
S Steuersignal
T Treatment
Tk Körpertemperatur
V Lesegeschwindigkeit
Vm mittlere Lesegeschwindigkeit
VI Eingangsvektor
Z Zeilennummer
ZS Zustandssignal

Claims

33 Patentansprüche
1. Verfahren zur Prüfung eines Filmvorprodukts (FVP), aufweisend die Schritte:
- Bereitstellen eines Filmvorprodukts (FVP) einem ausgewählten Kreis von Testpersonen (8),
- Aufteilen des Filmvorprodukts (FVP) in einzelne Abschnitte (A) und abschnittsweises Erfassen von Reaktionssignalen (E, ZS) der Testpersonen (8) während oder unmittelbar nach der Rezeption des Filmvorprodukts (FVP) durch die Testpersonen (8),
- Durchführen einer automatischen Auswertung der erfassten Reaktionssignale (E, ZS) zur Generierung von Bewertungsergebnisdaten (B) der einzelnen Abschnitte (A),
- optional Ermittlung eines Gesamtprüfergebnisses (GA) des Filmvorprodukts (FVP) in Abhängigkeit von den Bewertungsergebnisdaten (B).
2. Verfahren nach Anspruch 1 , wobei die Reaktionssignale mindestens eine der folgenden Signalarten aufweisen:
- ein Eingabesignal (E), welches durch bewusstes Betätigen einer Eingabeschnittstelle durch eine Testperson (8) erzeugt wird,
- ein Zustandssensorsignal (ZS), welches durch sensorielles Erfassen biometrischer und/oder physiologischer Daten von einer Testperson (8) erzeugt wird.
3. Verfahren nach einem der vorstehenden Ansprüche, wobei für den Fall einer zeitgleichen oder zeitnahen Erfassung von mehreren unterschiedlichen Reaktionssignalen (E, ZS) eine Zuordnung der unterschiedlichen Reaktionssignale (E, ZS) zu einem gemeinsamen Unterabschnitt des zu beurteilenden Abschnitts (A) erfolgt.
4. Verfahren nach einem der vorstehenden Ansprüche, wobei eine Konsistenzprüfung vorzugsweise zwischen demselben Unterabschnitt des zu beurteilenden Abschnitts (A) zugeordneten unterschiedlichen Reaktionssignalen (E, ZS) erfolgt.
5. Verfahren nach einem der vorstehenden Ansprüche, wobei das Filmvorprodukt (FVP) mindestens eine der Wiedergabearten umfasst:
- einen Text (2),
- eine Audioversion,
- eine Filmdarstellung (11). 34
6. Verfahren nach Anspruch 5, wobei der Text (2) zumindest eine der folgenden Textarten umfasst:
- eine Synopsis,
- ein Treatment (T),
- ein Drehbuch.
7. Verfahren nach Anspruch 5 oder 6, wobei die Filmdarstellung (11) zumindest eine der folgenden Typen umfasst:
- bei einem graphischen Storyboard hinterlegte Dialoge und/oder Geräusche und/oder Musik,
- einen animierten Film,
- eine grobe Schnittversion des Filmprodukts (FP).
8. Verfahren nach einem der Ansprüche 2 bis 7, wobei mittels einer Benutzerschnittstelle zumindest eines der folgenden Arten von Eingabeaufforderungssignalen zur Erzeugung des Eingabesignals (E) generiert wird:
- ein oder mehrere anwählbare Farbbalken (3a, 3b, 3c) pro Abschnitt (A) zur Abgabe einer Bewertung des Abschnitts (A),
- ein zusätzliches Textfeld für einen Freitextkommentar,
- eine Markierung (4a, 4b) einzelner Sätze oder Halbsätze eines Abschnitts (A),
- ein Feld für eine Graphendarstellung (5, 6) zur Gesamtbewertung der Vorübersicht,
- ein akustisches Promptsignal.
9. Verfahren nach einem der Ansprüche 2 bis 8, wobei das Eingabesignal (E) als akustisches Signal, vorzugsweise als Sprachsignal, eine akustische Erfassung
- einer mündlichen Angabe eines Skalenwerts, und/oder
- eines Freitextkommentars umfasst.
10. Verfahren nach einem der Ansprüche 2 bis 9, wobei das Zustandssensorsignal (ZS) zumindest eine der folgenden Informationsarten umfasst:
- einen Pulswert,
- Augenbewegungsdaten,
- Lesegeschwindigkeitsmessdaten,
- Scrollltrackingdaten.
11 . Verfahren zur Korrektur eines Filmvorprodukts (FVP), umfassend die Schritte:
- Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 10,
- Korrigieren des Filmvorprodukts (FVP) in Abhängigkeit von den Bewertungsergebnisdaten (B) des durchgeführten Verfahrens.
12. Verfahren nach Anspruch 11 , wobei bei dem Schritt des Korrigierens des Filmvorprodukts (FVP) einzelne Abschnitte geändert oder aussortiert werden, die gemäß einem vordefinierten Bewertungsmaßstab eine ungünstige Bewertung erhalten haben.
13. Verfahren nach Anspruch 11 oder 12, wobei die Änderung eines Abschnitts das Festlegen eines geeigneten Blickwinkels für die Bildaufnahme eines Abschnitts umfasst.
14. Filmvorproduktprüfeinrichtung (20), aufweisend:
- eine Wiedergabeeinheit (1 , 9, 10) zum Bereitstellen eines Filmvorprodukts (FVP) für einen ausgewählten Kreis von Testpersonen (8),
- optional eine Strukturierungseinheit (21) zum Aufteilen des Filmvorprodukts (FVP) in einzelne Abschnitte (A),
- eine Erfassungseinheit (22) zum abschnittsweisen Erfassen von Reaktionssignalen (E, ZS) der Testpersonen (8) während oder unmittelbar nach der Rezeption des Filmvorpro- dukts (FVP) durch die Testpersonen (8),
- eine Bewertungsdatenermittlungseinheit (23) zum Durchführen einer automatischen Auswertung der erfassten Reaktionssignale (ZS) zur Generierung von Bewertungsergebnisdaten (B) der einzelnen Abschnitte (A),
- optional eine Ergebnisermittlungseinheit zur Ermittlung eines Gesamtprüfergebnisses (GA) des Filmvorprodukts (FVP) in Abhängigkeit von den Bewertungsergebnisdaten (B).
15. Filmvorproduktkorrektureinrichtung, umfassend:
- eine Filmvorproduktprüfeinrichtung (20) nach Anspruch 14,
- eine Korrektureinheit zur Veränderung des Filmvorprodukts (FVP) in Abhängigkeit von den Bewertungsergebnissen (B, GA) der Filmvorproduktprüfeinrichtung (20) nach Anspruch 14.
16. Computerprogrammprodukt mit einem Computerprogramm, welches direkt in eine Speichereinrichtung einer Rechnereinheit ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 13 auszuführen, wenn das Computerprogramm in der Rechnereinheit ausgeführt wird.
17. Computerlesbares Medium, auf welchem von einer Rechnereinheit einlesbare und aus- führbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 13 auszuführen, wenn die Programmabschnitte von der Rechnereinheit ausgeführt werden.
PCT/EP2021/074311 2020-09-09 2021-09-02 Prüfung eines filmvorprodukts WO2022053399A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU2021340180A AU2021340180A1 (en) 2020-09-09 2021-09-02 Testing of a preliminary film product
US18/041,676 US20230297925A1 (en) 2020-09-09 2021-09-02 Testing of a preliminary film product
EP21772776.7A EP4211629A1 (de) 2020-09-09 2021-09-02 Prüfung eines filmvorprodukts

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020123554.2 2020-09-09
DE102020123554.2A DE102020123554A1 (de) 2020-09-09 2020-09-09 Prüfung eines Filmvorprodukts

Publications (1)

Publication Number Publication Date
WO2022053399A1 true WO2022053399A1 (de) 2022-03-17

Family

ID=77801722

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/074311 WO2022053399A1 (de) 2020-09-09 2021-09-02 Prüfung eines filmvorprodukts

Country Status (5)

Country Link
US (1) US20230297925A1 (de)
EP (1) EP4211629A1 (de)
AU (1) AU2021340180A1 (de)
DE (1) DE102020123554A1 (de)
WO (1) WO2022053399A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080222671A1 (en) * 2007-03-08 2008-09-11 Lee Hans C Method and system for rating media and events in media based on physiological data

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013188656A1 (en) 2012-06-14 2013-12-19 Thomson Licensing Method, apparatus and system for determining viewer reaction to content elements
GB2539949A (en) 2015-07-02 2017-01-04 Xovia Ltd Wearable Devices
US20170308931A1 (en) 2016-04-20 2017-10-26 CineMob, Inc. Enhanced viewer-directed motion picture screening
US10783443B2 (en) 2017-03-08 2020-09-22 International Business Machines Corporation Real-time analysis of predictive audience feedback during content creation
JP6749278B2 (ja) 2017-04-14 2020-09-02 ダイキン工業株式会社 生理状態判定装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080222671A1 (en) * 2007-03-08 2008-09-11 Lee Hans C Method and system for rating media and events in media based on physiological data

Also Published As

Publication number Publication date
DE102020123554A1 (de) 2022-03-10
AU2021340180A1 (en) 2023-03-09
EP4211629A1 (de) 2023-07-19
US20230297925A1 (en) 2023-09-21

Similar Documents

Publication Publication Date Title
DE60014063T2 (de) Vorrichtung und verfahren zur erkennung von gefühlen in der menschlichen stimme
Langer et al. Highly automated interviews: Applicant reactions and the organizational context
Constant et al. Ethnicity, job search and labor market reintegration of the unemployed
Bucy et al. Image bite analysis of presidential debates
DE112021006096T5 (de) Verändern der benutzeroberfläche einer anwendung während einer aufzeichnungssitzung
Stone et al. Induced forgetting and reduced confidence in our personal past? The consequences of selectively retrieving emotional autobiographical memories
Schuck et al. News framing effects and emotions
Brossart et al. Assessing group process: An illustration using tuckerized growth curves.
Bahreini et al. Communication skills training exploiting multimodal emotion recognition
DE69911054T2 (de) Trainingsgerät und -verfahren mit einem simulator der menschlichen interaktion
Psihountas Flipped classrooms and finance—Is this a better way to learn?
EP1345110A2 (de) Anpassung einer Mensch-Maschine-Schnittstelle in Abhängigkeit eines Psychoprofils und einer momentanen Befindlichkeit eines Anwenders
Silbey Designing qualitative research projects
EP4211629A1 (de) Prüfung eines filmvorprodukts
DE112017007900T5 (de) Systeme und verfahren zur erzeugung von daten natürlicher sprache
DE102007063136B4 (de) Interaktives Gehörtraining
Manes‐Rossi et al. Skeptic, enthusiast, guarantor or believer? Public managers' perception of participatory budgeting
Dahling et al. Eyes on the prize: A longitudinal study of action–state orientation, affect, and academic self-regulation
EP3120303A1 (de) System und verfahren zur netzwerkgestützten vermittlung von lerninhalten
McPherson et al. Counting qualitative data
DE102018002540A1 (de) Verfahren und Tool zur Analyse von kommunikations- und sprachgebundenen Aufgaben und zum Training der Umsetzung von kommunikations- und sprachgebundenen Aufgaben
DE102020133046B3 (de) Computerimplementiertes Verfahren zum Betreiben einer Computernetzwerkstruktur zur nonverbalen Kommunikation und zum Coaching mittels zumindest eines Kartensets
Seufert et al. Digital competences
Tan Social cultural and situative perspective of studying emotions in teaching and learning: characteristics, challenges and opportunities
EP4346558A1 (de) Softwarebasiertes, sprachbetriebenes und objektives diagnosewerkzeug zur verwendung in der diagnose einer chronischen neurologischen störung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21772776

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021340180

Country of ref document: AU

Date of ref document: 20210902

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021772776

Country of ref document: EP

Effective date: 20230411