El algoritmo desafía al instinto en la toma de decisiones editoriales

Los grandes grupos empiezan a apoyarse en el análisis del ‘big data’ para identificar cómo son sus lectores y qué títulos quieren para acortar el margen comercial de error.

Barbastro, Huesca… Congreso del libro electrónico de 2019, el pasado noviembre… Sabrina Salvador, directiva de Hachette UK, canta las maravillosas bondades que el big data brinda en uno de los grandes grupos de la industria editorial a nivel mundial. “Hace solo seis años, las decisiones de cómo y qué publicar se basaban en el instinto”, explicaba el pasado noviembre. Hoy, esa incierta intuición sobre si los libros funcionarán o no que ha caracterizado el negocio editorial puede peligrar. Los responsables ejecutivos de esas multinacionales comienzan a confiar en los datos cruzados para perfilar a sus lectores potenciales y entender qué libros quieren leer.

Los grandes conglomerados han ido armándose en los últimos años con analistas de datos. Desean saber con precisión quiénes son sus lectores (en términos demográficos, de género o de poder adquisitivo) y qué buscan para su toma de decisiones. Si las encuestas y las redes sociales fueron una primera fuente fiable, la irrupción de los dispositivos ha reducido el margen de error. En realidad, afirman los expertos en privacidad, son ellos quienes nos leen a nosotros y no tanto al revés. En eso, el pionero fue Amazon. Kindle y el resto de soportes para la lectura de los libros electrónicos consiguen una precisión en el sector en la obtención de información sobre el comportamiento de los lectores muy directa y efectiva (por ejemplo, en qué página exacta pierden el interés en la historia).

¿Supone esto la muerte de un editor más tradicional? ¿Seguirán los grandes grupos apostando por títulos que puedan dar la sorpresa? ¿Habrá espacio para esos fenómenos literarios como Soldados de Salamina, de Javier Cercas, o Patria, de Fernando Aramburu? ¿Para el éxito de Ordesa, de Manuel Vilas? Con la novela de Cercas los editores de Tusquets le dijeron en 2000 al autor que vendería 5.000 ejemplares, para mayores de 70 años. Aun así, lo publicaron. Y una vez en la calle, el libro apeló a una generación de nietos de la guerra que querían saber más sobre aquel trauma colectivo hasta alcanzar los dos millones de lectores. ¿Permitirá el big data un riesgo similar?

Salvador asegura que, desde hace seis años, la recopilación masiva de datos ha servido “para priorizar títulos mejor y anticiparlos, detectar potenciales éxitos, ajustar los recursos de marketing y promoción con más eficacia, avisar a los editores de posibles problemas, medir las expectativas del lector y la satisfacción que le puedes proporcionar…”. Con esas premisas sacan en la filial británica del Grupo Hachette (el “tercero del mundo orientado al gran público”, de origen francés y propietario, en España, de Anaya), aproximadamente, 5.000 títulos al año en todos los formatos con cierta tranquilidad.

La división de Hachette en Londres —que publica a autores como James Patterson, Donna Tartt, Maya Angelou o Stephen King— aprovecha las ventajas de estas herramientas que en España aún, tímidamente, ganan terreno en los dos principales grupos editoriales: Planeta y Penguin Random House. Desde el primero, Carlos Revés, director del área editorial, afirma: “Nosotros no hemos conseguido aún dar con una fórmula revolucionaria. Seguimos trabajando con criterios humanos, es decir, el gusto, el olfato y el saber hacer de los equipos editoriales junto al conocimiento de mercado que aportan los profesionales de marketing”.

La cuestión es si, en esas discusiones entre editores y analistas digitales, se impondrá el criterio de uno o el de otro. “La tecnología y los datos ayudan para el análisis del ciclo de vida y la decisión sobre las reediciones de nuestros libros. Este análisis se apoya en multitud de información: perfil del libro, datos históricos de venta, estacionalidad… Pero se trata de una información que se incorpora al proceso de decisión de los equipos”, afirma Marc Rocamora, director de Makgcom en Planeta.

Sensibilidad humana

¿Hasta cuándo? Salvador sostiene que en el Reino Unido cada vez la contundencia de esa información pesa más sobre las decisiones editoriales. En España parece que no tanto. Más que como un fin, los algoritmos son aún tomados como medios en Penguin Random House. “Por el momento, las técnicas de big data afectan al stock y la reimpresión. Actualmente trabajamos en modelos para mejorar la disponibilidad de lo primero. Mediante estos análisis, podemos centrarnos en el abastecimiento de las librerías sin romper la cadena”, dice Marta Rams, analista de datos de la multinacional. Aun así, ve lejos la posibilidad de que un algoritmo decida en el futuro qué libro se publica: “Aunque estos modelos ayudan a detectar oportunidades, no creemos que una solución así pueda determinarlo. El éxito de una obra puede venir dado por muchos factores”.

¿Y qué hay de aquellas plataformas que con las técnicas del big data ayudan a conformar el ocio de los consumidores? ¿Quedará la industria editorial al margen? Más que una predicción o una profecía, estas técnicas de análisis son una realidad. Ya están aquí, según Salvador, dispuestos a comerse toda la tajada de nuestro tiempo libre: “Poco a poco, hemos visto crecer nuevas formas de entretenimiento en detrimento de las horas empleadas en la lectura. Los nuevos gigantes, tipo YouTube o Netflix, se las han apañado para atraer a mucho público conociendo todos los gustos y el perfil de su audiencia. Por tanto para nosotros, en Hachette, resulta crucial entender también los hábitos y preferencias de los lectores. Necesitamos, cada vez más, tomar decisiones a conciencia y reducir la incertidumbre”.