2022
DOI: 10.31235/osf.io/yzfg8
|View full text |Cite
Preprint
|
Sign up to set email alerts
|

Stance on The Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence – Artificial Intelligence Act

Abstract: We appreciate the value of the public debate on societal impact of artificial intel-ligence in general. Our aim is to contribute to the public debate and present ourideas on the proposed regulation of artificial intelligence, which was introducedby the European Commission on April 21, 2021. In this paper we present ourstance on specific areas of the proposed regulation - The proposal for a regulationof the European Parliament and of the Council Laying Down Harmonised Ruleson Artificial Intelligence (Artificial… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1

Citation Types

0
1
0
2

Year Published

2022
2022
2024
2024

Publication Types

Select...
3
1
1

Relationship

0
5

Authors

Journals

citations
Cited by 20 publications
(3 citation statements)
references
References 4 publications
0
1
0
2
Order By: Relevance
“…Los problemas de privacidad en las políticas conductuales inteligentes surgen de manera similar a los que se producen en otro tipo de cuestiones en las que se usa IA y se deben, principalmente, a la gran cantidad de datos que sería necesaria recopilar para poder llevar a cabo con éxito este tipo de políticas, así como la dificultad para anonimizar los datos de forma que sea imposible extraer o inferir ningún tipo de información sobre la persona de la que procede. Aunque es cierto que la recopilación de ciertos tipos de datos biométricos, así como otra de información sensible relativa a la orientación sexual de las personas y demás, no es una práctica legal ni ética, al menos dentro de la Unión Europea (Comisión Europea, 2021), la realidad es que desde hace décadas empresas y administraciones públicas de todo el mundo han estado recopilando grandes cantidades datos que contienen información sensible acerca de la ciudadanía gracias a la falta de conocimiento y concienciación de la misma (Véliz, 2021).…”
Section: Discussionunclassified
See 1 more Smart Citation
“…Los problemas de privacidad en las políticas conductuales inteligentes surgen de manera similar a los que se producen en otro tipo de cuestiones en las que se usa IA y se deben, principalmente, a la gran cantidad de datos que sería necesaria recopilar para poder llevar a cabo con éxito este tipo de políticas, así como la dificultad para anonimizar los datos de forma que sea imposible extraer o inferir ningún tipo de información sobre la persona de la que procede. Aunque es cierto que la recopilación de ciertos tipos de datos biométricos, así como otra de información sensible relativa a la orientación sexual de las personas y demás, no es una práctica legal ni ética, al menos dentro de la Unión Europea (Comisión Europea, 2021), la realidad es que desde hace décadas empresas y administraciones públicas de todo el mundo han estado recopilando grandes cantidades datos que contienen información sensible acerca de la ciudadanía gracias a la falta de conocimiento y concienciación de la misma (Véliz, 2021).…”
Section: Discussionunclassified
“…Estos principios son: la explicabilidad de la IA (XAI), el no-daño, el respeto por la autonomía humana y la justicia. Para poder garantizar el cumplimiento de estos principios la UE ha desarrollado la primera legislación a nivel mundial en materia de IA (Comisión Europea, 2021). Dicha legislación diferencia entre cuatro tipos de IA en función del nivel de riesgo (inaceptable, alto, medio y bajo) que conlleva su uso en relación con la posible violación de derechos y libertades fundamentales.…”
Section: Ia En El Sector Públicounclassified
“…Regulators are also concerned about this issue: for example, the European Commission's recently proposed Artificial Intelligence Act states " [ML] providers should be able to process... special categories of personal data, as a matter of substantial public interest, in order to ensure the bias monitoring, detection and correction in relation to high-risk AI systems" as part of a "robust post-market monitoring system." [47] Similar regulations have been proposed in New Zealand [114], Canada [159], the US [2], and the UK [64].…”
Section: Faircanary: Rapid Continuous Explainable Fairnessmentioning
confidence: 91%