Con una brillante trayectoria, Cani Fernández (Cartagena, 1963) se ha destacado por ser una abogada excepcional en el campo de la Competencia y el Derecho comunitario. Tras haber sido letrada en el Tribunal de Justicia de la Unión Europea (TJUE) entre 1993 y 1997, desarrolló su carrera profesional durante más de veinte años en Cuatrecasas donde se convirtió en la segunda socia de su historia y lideró el área de Derecho de la Competencia. En 2018 se convirtió en la primera mujer a la que Chambers reconocía su contribución al sector legal, repitiendo dicho reconocimiento un año después. Entre sus múltiples distinciones otorgadas por su práctica profesional, destaca su reconocimiento, año tras año, como uno de los 30 mejores especialistas en Competition/Antitrust mundiales en la categoría Best of the Best de la guía Expert Guides. Desde junio de 2020, es presidenta de la CNMC (Comisión Nacional de los Mercados y la Competencia).
Comprometida con la innovación de los procesos y entornos laborales y la igualdad, es miembro activo de Women in a Legal World. Con decenas de publicaciones y conferencias en su haber, participa frecuentemente como ponente en actividades del ICAM como en la I Cumbre de Derecho Europeo o, recientemente, en el VI Congreso de Derecho Bancario y en la XI Cumbre de Mujeres Juristas.
En esta entrevista analizamos con ella la reforma de los mercados y servicios digitales en Europa a través de normas aprobadas en los últimos meses (entre las que destacan dos Reglamentos de gran alcance: la Digital Services Act y la European Media Freedom Act), y el importante papel que tiene, y va a tener, el organismo que preside supervisando su cumplimiento, entre otras funciones.
Europa acaba de llevar a cabo una profunda reforma de la normativa que regula Internet y el funcionamiento de las plataformas digitales. Este esfuerzo busca, según el legislador comunitario, mantener un equilibrio virtuoso entre la protección de derechos fundamentales como la privacidad, la libertad de expresión y la dignidad, y la necesidad de un mercado único seguro, innovador, libre y competitivo. Una de las piezas clave de esta reforma es el Reglamento de Servicios Digitales (DSA). ¿Considera que esta norma crea un marco jurídico que aporta mayor claridad sobre qué pueden o deben hacer las plataformas y el alcance de su responsabilidad?
El Reglamento de Servicios Digitales o DSA por sus siglas en inglés, aporta una mayor claridad al marco jurídico que deben cumplir a partir de ahora los prestadores de servicios de intermediación. Estamos en una fase inicial de la implementación de este reglamento europeo, pero el objetivo principal es crear un espacio digital más seguro, justo y competitivo, donde los derechos de los usuarios y las empresas se protejan de forma efectiva y los ciudadanos puedan ejercer sus derechos fundamentales en el mundo digital. Son derechos relevantes, como la libertad de expresión y de información, la libertad de empresa, el derecho a la no discriminación, la garantía de un nivel elevado de protección de los menores y de los consumidores, entre otros.
La Comisión Europea tiene la competencia en exclusiva en lo que se refiere a la aplicación de las obligaciones previstas a las plataformas y motores de búsqueda de muy gran tamaño, que son las más conocidas y las que más impactan, en general, nuestro día a día: META, X, Google, Whatsapp, etc. y que se conocen ya por los acrónimos de VLOPS y VLOSES (Very Large Online Platforms y Very Large Online Search Engines) De hecho, como es conocido, la Comisión Europea ya ha abierto investigaciones a algunas de estas grandes plataformas.
Pero también hay un marco de ejecución compartida entre la Comisión Europea y los Estados miembros. En concreto, los Estados miembros tienen atribuidas potestades de supervisión y ejecución de la DSA sobre los prestadores de intermediación que estén establecidos en su territorio (y que no sean VLOPS o VLOSE). También, los Estados miembros deben colaborar con la Comisión Europea en la supervisión de las VLOPS y VLOSES cuando lleguen a su conocimiento posibles infracciones de estos operadores en su territorio.
Para el ejercicio de estas funciones de colaboración, coordinación y supervisión cada Estado miembro debe nombrar un Coordinador de Servicios Digitales (DSC, por sus siglas en inglés referidas al Digital Service Coordinator).
En el caso de España, la CNMC fue designada DSC el pasado enero, aunque todavía no ha sido habilitada legalmente ni dotada de los recursos necesarios para el ejercicio de estas nuevas funciones. En su momento, cuando llegue la habilitación, la CNMC podrá ejercer las amplias funciones de investigación, ejecución y sanción que prevé el Reglamento de Servicios Digitales. Además, será la autoridad responsable de garantizar la coordinación en el ámbito nacional de la tramitación de denuncias e infracciones de las que pueda tener conocimiento como supervisor de las plataformas. Estas nuevas funciones suponen un gran reto para la CNMC y desde luego vienen a colmar un espacio que reclaman los ciudadanos en sus interacciones con el mundo digital desde hace tiempo.
Desde el punto de vista de la libertad de expresión y la regulación de contenidos en Internet, una preocupación constante ha sido siempre la cuestión de las garantías que tienen los usuarios ante la retirada de sus contenidos. Como organismo regulador, ¿considera que la DSA logra ese equilibrio buscado entre derechos y libertades?
El Reglamento de Servicios Digitales parte de la premisa de que cualquier actuación derivada del reglamento debe respetar, como no puede ser de otra manera, los derechos fundamentales amparados por la Carta de los Derechos Fundamentales de la UE. Se hace especial hincapié en la libertad de expresión y de información y en el pluralismo de los medios de comunicación.
El mismo Reglamento prevé que los prestadores de servicios intermediarios deben indicar en sus condiciones generales con claridad la información relativa a los motivos por los que pueden restringir la prestación de sus servicios; particularmente, se debe informar sobre cualesquiera políticas y procedimientos empleados para moderar los contenidos.
La adopción de cualquier restricción por los prestadores del servicio debe llevarse a cabo de forma no arbitraria y no discriminatoria y tener en cuenta los derechos e intereses legítimos de los destinatarios del servicio, incluidos los derechos fundamentales amparados por la Carta. Toda retirada de contenidos concretos que se consideren ilícitos o el bloqueo del acceso a ellos, ha de realizarse sin afectar indebidamente a la libertad de expresión y de información de los destinatarios del servicio. Además, las restricciones que se impongan por el prestador de servicio tienen que estar acompañadas por una declaración de motivos clara y específica dirigida a los destinatarios del servicio afectado.
Para las plataformas en línea, el Reglamento prevé, además, que establezcan un sistema interno eficaz de gestión de reclamaciones que permita presentar reclamaciones contra la decisión tomada por dicho prestador cuando reciba una notificación acerca de un contenido supuestamente ilícito o incompatible con sus condiciones generales.
¿De qué manera colabora la CNMC con reguladores de otros países para abordar problemas globales de la difusión de contenido ilícito en Internet?
El Reglamento de Servicios Digitales armoniza las normas aplicables a los servicios intermediarios digitales en el mercado interior. Ello exige un importantísimo grado de coordinación y colaboración con la Comisión Europea, con el resto de DSCs europeos, y también con las autoridades competentes a nivel nacional (por ejemplo, la agencia del medicamento, la autoridades de consumo, las agencias de control alimentario,…). La colaboración y coordinación debe establecerse a todos los niveles para asegurar un grado homogéneo y amplio de protección de los ciudadanos.
A nivel europeo, el principal órgano de coordinación para la aplicación del Reglamento de Servicios Digitales es la Junta Europea de Servicios Digitales. La Junta es un consejo consultivo independiente, integrado por todos los coordinadores de servicios digitales para la supervisión de los prestadores de servicios intermediarios.
Entre los objetivos de la Junta se encuentra coordinar y contribuir a las directrices y los análisis de la Comisión Europea y los coordinadores de servicios digitales sobre problemas emergentes en el mercado interior con respecto a las materias reguladas por el Reglamento de Servicios Digitales.
En este marco, y por lo que a los riesgos que puede suponer la difusión de contenidos ilícitos, la Junta, recientemente ha participado en la elaboración de las Directrices para la reducción de riesgos sistémicos en los procesos electorales dirigidas a los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño cuyos servicios estén expuestos a efectos negativos reales o previsibles en los procesos electorales.
Dentro de los riesgos identificados expresamente en las Directrices, se encuentra la proliferación de la incitación ilegal al odio en internet, las amenazas relacionadas con la manipulación de la información, la injerencia por parte de agentes extranjeros, o la difusión de contenidos generados mediante inteligencia artificial generativa.
Estas reformas se han presentado como un esfuerzo integral para asegurar que Europa siga siendo un baluarte de derechos y libertades fundamentales, mientras se promueve un mercado digital robusto y equitativo. ¿Desde el punto de vista del mercado y la competencia, diría que se ha logrado con mecanismos como los distintos niveles de responsabilidad según el tamaño de las plataformas?
En mi opinión, este nuevo paquete regulador de las plataformas debe evaluarse de forma positiva. El Reglamento de Servicios Digitales junto con el Reglamento de Mercados Digitales (DMA, en sus siglas en inglés), han venido para crear un entorno digital más seguro y competitivo.
Mientras el Reglamento de Mercados Digitales pretende que los mercados sean disputables y abiertos y que todas las empresas puedan llevar a cabo su actividad económica sin estar sujetas a los abusos que pueden llevar a cabo los grandes actores digitales, el Reglamento de Servicios Digitales trata de vigilar el comportamiento de los intermediarios de servicios digitales.
Ambas regulaciones son lo que denominamos regulación o legislación asimétrica y creo que este tipo de enfoque regulatorio a la hora de legislar las plataformas en el entorno digital, con las características tan peculiares que les atañen, es el más oportuno.
Debemos ser conscientes de que, antes de adoptar una determinada regulación, hay que analizar y comprender al mercado al que se dirige. Si en ese mercado tenemos operadores con condiciones distintas, no podemos adoptar una regulación que sea simétrica para todos.
En síntesis, la DSA es un cuerpo legislativo moderno que, además de ser una regulación asimétrica, incorpora una intervención de todos los agentes que pueden proporcionar un enforcement con menos error. Por ejemplo: participación de los investigadores –expertos en inteligencia artificial- para analizar si en una plataforma existe o no riesgo sistémico. Esto complementa las funciones del supervisor, que tiene un ámbito de actuación más general. Hay que tener en cuenta que este tipo de perfiles profesionales son escasos y muy demandados por el mercado en estos momentos, y los recursos limitados de las autoridades públicas tendrían muy complicada su contratación.
Creo que cada vez más iremos en esta tendencia, en la que se incluirán en la normativa aquellos agentes que pueden ayudar a la autoridad en su cometido y es algo que valoramos de manera positiva.
Con la reciente designación de la CNMC, por el Ministerio de Transformación Digital y Función Pública, como Coordinador de Servicios Digitales, pasa a ser un actor fundamental para la protección del menor en el entorno digital, un tema con el que el ICAM está particularmente comprometido. ¿Cómo está trabajando la CNMC para lograr un entono digital más seguro para los menores de edad?
El artículo 28 del Reglamento contiene unas previsiones específicas para los menores que deben aplicar las plataformas en línea accesibles a los mismos con el fin de garantizar un elevado nivel de privacidad y seguridad. Asimismo, dicho artículo prevé que la Comisión Europea elabore unas Directrices para guiar a los prestadores de plataformas en línea accesibles a menores. La CNMC, a través de la Junta Europea de Servicios Digitales colaborará en la elaboración de dichas directrices.
Por otro lado, la CNMC forma parte de varios grupos en los que se están analizando y proponiendo medidas para la protección del menor. Me refiero al Grupo de trabajo para determinar las funcionalidades del sistema de control de acceso a contenidos para personas adultas de las personas menores de edad, que lidera el Ministerio para la Transformación Digital y de la Función Pública; al Comité de personas expertas para el desarrollo de un entorno digital seguro para la juventud y la infancia, creado por Acuerdo de Consejo de Ministros de 30 de enero de 2024 o la Task force de la Unión Europea para avanzar en soluciones europeas que aborden sistemas de verificación de edad efectivos. El objetivo es fomentar la cooperación con las autoridades nacionales de los Estados miembros con experiencia en este ámbito para determinar las mejores prácticas y normas en materia de verificación de la edad, como reclama la sociedad.
¿Existen mecanismos para que los usuarios puedan reportar infracciones de manera efectiva?
El Reglamento de Servicios Digitales dispone que todos los prestadores de servicios de alojamiento de datos han de establecer mecanismos que permitan que cualquier persona pueda notificar la presencia de un servicio de contenidos ilícitos.
Ante una notificación de este tipo, los citados prestadores adoptarán la decisión correspondiente que deberán notificar al usuario con indicación de las vías de recurso para el supuesto de que no estuviesen de acuerdo con la decisión adoptada por la plataforma.
El Reglamento, en línea con lo indicado anteriormente, insiste en que los mecanismos de notificación y acción para facilitar el tratamiento de los reportes que se formulen deben salvaguardar los derechos fundamentales de todos los afectados, citando expresamente, entre otros, la libertad de expresión e información, el derecho al respeto a la vida privada y familiar, el derecho a la protección de datos personales o el derecho a la tutela judicial efectiva.
Para el caso de las plataformas en línea, el Reglamento prevé, además, que establezcan un sistema interno eficaz de gestión de reclamaciones que permita presentar reclamaciones contra la decisión tomada por dicho prestador cuando reciba una notificación.
La DSA también introduce nuevas obligaciones de transparencia y facilita el acceso de los investigadores autorizados a los datos fundamentales de las plataformas más grandes. ¿Qué efectos podemos esperar de esta previsión?
La obligación sobre las grandes plataformas de permitir acceso a los datos que sean necesarios -incluidos los relacionados con algoritmos- para hacer el seguimiento del cumplimiento del Reglamento, es sin duda uno de los grandes hitos de esta nueva legislación ya que va a permitir conocer cómo funcionan las plataformas. Esta información es indispensable para poder supervisar las obligaciones impuestas a las grandes plataformas. La posibilidad de certificar expertos es una solución muy acertada, a mi modo de ver. Como ya hemos dicho, este tipo de perfiles profesionales son escasos y muy demandados por el mercado en estos momentos, y los recursos limitados de las autoridades públicas tendrían muy complicada su contratación.
Estos expertos están en mejor posición que cualquiera de nosotros para detectar los riesgos sistémicos en los que puedan estar incurriendo las grandes plataformas, así como en la evaluación de los mecanismos implementados.
Otro aspecto crucial de esta reforma es crear un entorno digital que proteja el derecho a la información veraz, poniendo en marcha, además de las propias previsiones de la DSA en este sentido, un código de buenas prácticas más riguroso. ¿Cuál es el papel de la CNMC en este sentido -en promover y garantizar el derecho a la información veraz- tanto en el entorno digital como mediático?
El Reglamento de Servicios Digitales pretende garantizar que las plataformas y motores de búsqueda en línea, y en particular las de muy gran tamaño sean más responsables y asuman plenamente las consecuencias de las acciones que toman y los riesgos sistémicos que plantean, incluido la desinformación y la manipulación de los procesos electorales.
Las disposiciones del Reglamento sobre notificación y retirada de contenidos ilegales sólo afectan directamente a la lucha contra la desinformación si el contenido compartido se considerara ilícito según la legislación de los Estados miembros.
Para ello, establece obligaciones específicas a las plataformas y motores de búsqueda en línea de muy gran tamaño respecto a los riesgos sistémicos y otra serie de obligaciones contra prácticas inapropiadas que pueden ser relevantes en materia de desinformación, que resultan de aplicación, ciertas de ellas, no solo a las grandes plataformas, sino también a otro tipo de servicios intermediarios (entre otras, transparencia en la moderación de contenido; protección de los usuarios contra prácticas engañosas y perfilado engañoso de sus datos para uso publicitario o de los sistemas de recomendación; obligaciones adicionales relativas a la publicidad y a los sistemas de recomendación…).
El conjunto se obligaciones de diligencia del Reglamento de Servicios Digitales se complementa con el establecimiento de un marco corregulatorio a través de códigos de conducta voluntarios, destinados a abordar los riesgos sistémicos de las grandes plataformas y motores de búsqueda, incluidos los vinculados a la desinformación.
En este contexto, se prevé que el Código de buenas prácticas contra la desinformación firmado en 2018 se convierta en un código de conducta amparado en el Reglamento de Servicios Digitales.
El Código de buenas prácticas contra la desinformación es un conjunto de compromisos para combatir la desinformación, acordados de forma voluntaria por representantes de las plataformas en línea, las principales redes sociales, los anunciantes y la industria publicitaria. La CE alentó y facilitó la elaboración del Código, que fue firmado en 2018.
Con la presentación del Código reforzado en junio de 2022, éste pasó a formar parte de un marco normativo más amplio, junto al Reglamento UE 2024/900, de 13 de marzo de 2024, sobre la transparencia y la segmentación de la publicidad política, y el Reglamento de servicios digitales.
Las actividades realizadas en el marco del Código complementan la implementación de los requisitos establecidos en el Reglamento. Para los firmantes del Código que son considerados como plataformas y motores de búsqueda de gran tamaño, la adhesión al Código se convertirá en una medida apropiada para la mitigación de riesgos sistémicos.
La participación de la CNMC en los códigos está prevista, conjuntamente con la CE, a través de la Junta europea de Servicios Digitales en lo que al fomento y revisión periódica de los códigos se refiere.
Precisamente, en paralelo a la DSA, la European Media Freedom Act refuerza la independencia editorial y la transparencia en la propiedad de los medios. La CNMC, como regulador audiovisual, ya venía ejerciendo un papel de supervisión de este mercado. ¿Cómo va a reforzar la EMFA las garantías para un mayor pluralismo e independencia de los medios, y cuál va a ser el papel de la CNMC en ello?
Los organismos reguladores del sector audiovisual serán los responsables de la aplicación del Capítulo III del EMFA (es decir, todas las medidas, excepto las relativas a los derechos de los prestadores de servicios de medios, las salvaguardias para el funcionamiento de los medios de servicio público (y sus deberes).
Ciertas competencias, como, por ejemplo, el desarrollo de bases de datos sobre la propiedad de los medios de comunicación nacionales, pueden ser atribuidas al organismo regulador u a otra autoridad competente.
Los Estados miembros deben garantizar que cuentan con los recursos financieros, humanos y técnicos adecuados para llevar a cabo sus nuevas tareas. También se les deben otorgar poderes de investigación adecuados, incluido el poder de solicitar información.
En España, el Ministerio para la Transformación Digital y de la Función Pública es el encargado de la adaptación del ordenamiento jurídico nacional al Reglamento de EMFA. Por tanto, es a quien corresponde la identificación de la autoridad competente respecto a aquellas competencias no atribuidas específicamente al organismo regulador del sector audiovisual.
Este Reglamento también crea un órgano europeo de vigilancia de la libertad de los medios de comunicación, el Consejo Europeo de Servicios de Medios de Comunicación, independiente y formado por autoridades nacionales de medios de comunicación, la CNMC en el caso de España ¿Cuál es la misión de este Consejo Europeo y qué papel desempeñará la CNMC dentro del mismo?
El Reglamento prevé la transformación de ERGA en el Comité Europeo de Servicios de Medios de Comunicación (el “Comité”), integrado por los organismos reguladores del sector audiovisual y contará con la asistencia de una secretaría proporcionada por la Comisión Europea.
El objetivo del Comité es promover una aplicación eficaz y coherente del marco legislativo relativo a los medios de la UE, entre otras cosas, emitiendo dictámenes sobre el impacto de las concentraciones del mercado de medios que puedan afectar al funcionamiento del mercado interior de servicios de medios, así como apoyando a la Comisión Europea en la preparación de directrices sobre cuestiones regulatorias de los medios de comunicación o mediante la organización de un diálogo estructurado entre las plataformas en línea de gran tamaño, los medios de comunicación y la sociedad civil.
El Comité entrará en funcionamiento el 8 de febrero de 2025. La CNMC ha sido elegida por los organismos reguladores del sector audiovisual de la UE para asumir la presidencia del nuevo organismo el año próximo. Estamos ya trabajando para asegurar que el nuevo Comité esté plenamente operativo en febrero de 2025.
¿Qué medidas específicas establece la European Media Freedom Act para proteger la independencia editorial de los medios de comunicación frente a las presiones políticas y comerciales, y cómo se supervisa su cumplimiento?
El objetivo del Reglamento de EMFA es combatir las injerencias políticas en las decisiones editoriales de los prestadores de medios de comunicación, proteger a los periodistas y a sus fuentes y garantizar la libertad y el pluralismo de los medios de comunicación.
Con este fin, el Reglamento establece un conjunto de nuevas obligaciones y salvaguardias en relación con los servicios de medios para una amplia gama de actores, incluidos los Estados miembros, las plataformas en línea de muy gran tamaño y los fabricantes de dispositivos. En este sentido, el EMFA: protege la independencia editorial exigiendo a los Estados miembros que respeten la libertad editorial efectiva de los prestadores de servicios de medios de comunicación; protege las fuentes periodísticas, también contra el uso de programas espía; incluye salvaguardias para garantizar el funcionamiento independiente de los medios de comunicación públicos, en particular garantizando unos recursos financieros adecuados, sostenibles y previsibles y fomentando la transparencia en el nombramiento del director o de los miembros de los consejos de administración; refuerza la transparencia respecto a la propiedad de los medios de comunicación; proporciona salvaguardias contra la eliminación injustificada por parte de las plataformas en línea de muy gran tamaño (designadas en virtud de la Ley de Servicios Digitales) de contenidos de servicios de medios de comunicación; introduce un derecho de personalización de la oferta de medios en dispositivos e interfaces, como televisores conectados; garantiza que los Estados miembros proporcionen una evaluación del impacto de las concentraciones clave del mercado de los medios de comunicación en el pluralismo de los medios de comunicación y la independencia; garantiza una mayor transparencia en la medición de la audiencia para los prestadores de servicios de medios de comunicación y los anunciantes; establece requisitos de transparencia para la asignación de publicidad institucional; y, finalmente, transforma el Grupo de Entidades Reguladoras Europeas de los Servicios de Comunicación Audiovisual (ERGA) en el Comité Europeo de Servicios de Medios de Comunicación, para garantizar una aplicación coherente del Reglamento del EMFA y de otras normas de la Unión Europea en materia de medios de comunicación (en particular, la Directiva de servicios de comunicación audiovisual).
¿Podría darnos ejemplos de sanciones recientes impuestas por su organismo a plataformas o medios que han incumplido las normativas?
Como he comentado, la CNMC aún no ha sido habilitada legalmente para ejercer sus competencias en el ámbito del Reglamento de Servicios Digitales, por lo que no ha podido iniciar ningún procedimiento sancionador. He de decir, no obstante, que de momento tampoco hemos recibido denuncias contra plataformas establecidas en España.
Por lo que al EMFA se refiere, aún no ha entrado en vigor ni se han adoptado las medidas necesarias para implementar algunas de sus previsiones, motivo por el cual, tampoco se ha iniciado ningún procedimiento sancionador.
En el marco de la Ley General de la Comunicación Audiovisual, sí que hemos iniciado algún procedimiento contra plataformas de intercambio de vídeos de contenido pornográfico que prestaba servicios sin establecer un sistema eficaz de verificación de edad para impedir el acceso de menores. Se trata del procedimiento iniciado contra TECHPUMP que ha sido incoado en abril de este año. La CNMC ha ordenado, con carácter provisional hasta que se apruebe la resolución definitiva, el cese inmediato de la conducta presuntamente infractora, así como de la prestación de servicios de intercambio de vídeos hasta que no se implemente un sistema de verificación de edad que garantice que los menores de edad no accedan a los contenidos pornográficos que provee.
Finalmente, y mirando ahora al propio funcionamiento de la Comisión, ¿se está adaptando la CNMC a las nuevas tecnologías, como la inteligencia artificial, para mejorar la regulación y supervisión de contenidos digitales?
Me alegra poder destacar la situación privilegiada en la que se encuentra la CNMC en materia de tecnologías de la información. No sólo podemos decir que ya hemos superado la transformación digital, dado que todos los expedientes, procesos internos, comunicaciones y, en general, la forma de trabajo, se realizan de manera digital y con herramientas ágiles, colaborativas y accesibles en todo momento. Todo el personal dispone de un portátil y puede trabajar desde cualquier parte utilizando firma digital, notificaciones telemáticas y comunicaciones electrónicas, sin importar la ubicación física. A ello se añaden herramientas de colaboración, gestión de proyectos, big data y, por supuesto, inteligencia artificial.
Esta cultura fuertemente tecnológica, ágil y moderna, es reconocida entre la Administración General del Estado, en la que somos un organismo de
referencia.
En efecto, la Unidad de Inteligencia Económica ha desarrollado la herramienta BRAVA (en inglés, Bid Rigging Algorithm for Vigilance in Antitrust). Se basa en técnicas de aprendizaje automático o machine learning que, a través de distintos modelos, es capaz de clasificar de forma automatizada distintas ofertas presentadas en una licitación como potencialmente colusorias o como competitivas. Con esta herramienta mejoramos la detección de conductas colusorias en la contratación pública. Una prioridad para nosotros.
BRAVA ha recibido el premio de la Revista Sociedad de la Información Digital en la categoría de IA para la detección del fraude y corrupción.
Por eso, y en esa línea, desde luego que la CNMC está trabajando para aprovechar las ventajas de las tecnologías de la información y mejorar la regulación y supervisión de contenidos digitales.
De hecho, ya estamos en ello y hemos avanzado parte del camino. No sólo tenemos ya informatizada la base fundamental, como puede ser el desarrollo de un sistema informático para registrar las fichas de prestadores de servicios intermediarios, las futuras fichas de alertadores fiables, de órganos de resolución extrajudicial de litigios y de investigadores autorizados. También tenemos muy avanzada la tramitación digital de los procesos de certificación del DSC a los actores que acabo de mencionar, la tramitación electrónica de los futuros expedientes relacionados con la DSA, como pueden ser las reclamaciones o las órdenes de actuación, y por último, la gestión de los grupos de trabajo.
Pero vamos más allá de una administración digital, pues efectivamente nuestro objetivo es aprovechar las capacidades y tecnologías más avanzadas de inteligencia artificial. En este sentido, tenemos unos cuantos prototipos de proyectos que ya están arrojando resultados prometedores, entre los que puedo nombrar, por ejemplo, la detección de contenidos relacionados con alcohol, violencia, pornografía o discursos de odio. Estos proyectos nos permitirán en un futuro supervisar un volumen muchísimo mayor que si lo hiciéramos con otros medios. No obstante, aquí tenemos mucho campo por explorar, pero desde luego tenemos claro lo útiles que pueden llegar a ser estas herramientas, y ya hemos adquirido un conocimiento que nos ha hecho avanzar parte del camino, que por supuesto vamos a continuar. Es seguro que estas iniciativas que estamos teniendo, incluso antes de tener las capacidades legales para actuar, darán sus frutos.