Tratamientos de datos personales ex machina en plataformas de turismo colaborativo. Concienciación y previsibilidad a través de las políticas de privacidad

Loading...
Thumbnail Image

Full text at PDC

Publication date

2021

Advisors (or tutors)

Editors

Journal Title

Journal ISSN

Volume Title

Publisher

RDU Revistas Especializadas
Citations
Google Scholar

Citation

Gutiérrez David M E, Tratamientos de datos personales ex machina en plataformas de turismo colaborativo. Concienciación y previsibilidad a través de las políticas de privacidad. Revista de Privacidad y Derecho Digital. 2021; 6(22):57-114.

Abstract

Las plataformas de turismo colaborativo constituyen un ecosistema genuino donde se desarrollan e implementan tecnologías innovadoras como el Machine Learning o el IoT. Estas tecnologías posibilitan el tratamientos masivos y altamente intrusivos de los datos personales de millones de usuarios, en tiempo real y con efectos individuales y sociales disruptivos. Es una afirmación común que los tratamientos de datos realizados por estas tecnologías, especialmente, mediante el aprendizaje automático permanecen, a menudo, “invisibles” para los interesados. Ello implica un alto riesgo de vulneración de los principios de lealtad y transparencia cuando los afectados no esperan tales tratamientos o el resultado de los mismos. Para evidenciar tales riesgos, trataremos de “visibilizar” las nuevas taxonomías de datos personales, observados e inferidos, así como los tratamientos específicos realizados por las plataformas colaborativas (decisiones individuales automatizada y elaboración de perfiles). Para ello, rastrearemos la fraseología común utilizada en las políticas de privacidad (por ejemplo, «métodos automatizados», «tecnologías similares», «precios dinámicos individuales») tratando de “levantar el velo” sobre la verdadera naturaleza y alcance de dichos tratamientos de datos.
Sharing tourism platforms constitute a genuine ecosystem where innovative technologies such as Machine Learning or IoT are developed and implemented. They enable massive, real time and highly intrusive processing of the personal data of millions of users, with disruptive individual and social effects. It is a common claim that underlying processing by these technologies especially, by machine learning modelling remains «invisible» to data subjects. This involves high risks of breaching the fairness and transparency principles when processing or any outcome resulting from it is not foreseen by individuals. To evidence such risks, we will seek to «make visible» the new taxonomies of observed and inferred personal data and the specific processing which takes place in sharing platforms (automated individual decision-making and profiling). In order to achieve this goal, we will trace the common wording used by privacy policies («automated methods», «similar technologies», «individual dynamic pricing» and so on) seeking to lift the veil on the true nature and scope of such data processing.

Research Projects

Organizational Units

Journal Issue

Description

Tiene permiso de la editorial para su depósito en Docta

Keywords

Collections