Zoekresultaat: 14 artikelen

x

    In the more than 15 years that decentralized audit offices have existed in the Netherlands, little attention has been paid to the research methods they use. This article focuses on how the research methods used by decentralized audit offices have developed and to what extent they use new technology. New technology has changed a lot in 15 years, which offers new possibilities for research, but also raises new questions. Based on an empirical analysis of audit reports, it can be concluded that decentralized audit offices adopt a standard approach to document and file analysis and interviews, with only limited application of innovative technology. On the basis of a theoretical exploration of the relevant literature and a simple qualitative analysis of research by the Netherlands Court of Audit and the Rathenau Institute, a framework has been developed in which the opportunities and risks of the application of new technology in decentralized audit office research are described. This can provide a handle for future application. Decentralized audit offices can use this for (more) reflection on their research methods and innovation, in order to develop to maturity while remaining young.


Ard Schilder
Dr. N.A.C. Schilder is directeur-bestuurder van de Zuidelijke Rekenkamer.

Isabelle Fest
I. Fest MA is promovendus bij de Universiteit Utrecht, waar zij onderzoek uitvoert naar de toepassing van algoritmen bij de Nationale Politie.

Erik Schurer
E. Schurer MSc is als onderzoeker verbonden aan de Zuidelijke Rekenkamer.
Artikel

Hoe SyRI het belang van transparantie ­onderstreept

Tijdschrift Beleid en Maatschappij, Aflevering 3 2021
Trefwoorden SyRI, digitisation, transparency, trust, ICT
Auteurs Tosja Selbach en Barbara Brink
SamenvattingAuteursinformatie

    The Dutch digital fraud detection system SyRI was announced to set up to detect social security fraud quickly and effectively and by doing so, maintain support for the social security system. It was the formal position that for the sake of effectiveness, no information about the algorithm and very limited information about the application of the system should be shared. The authors argue on the basis of a policy analysis, a legal exploration and a literature study that the lack of transparency about the chosen method and the application of the digital fraud detection system in social security can have far-reaching consequences for both the individual and society . The information sharing and the use of algorithms can lead to suspicion of and declining confidence in the government, and a reduced motivation to comply with the prevailing rules. This could undermine the original purpose.


Tosja Selbach
Mr. Tosja Selbach is voormalig LLM-student governance and law in digital society, Rijksuniversiteit Groningen.

Barbara Brink
Dr. Barbara Brink is postdoc-onderzoeker socialezekerheidsbeleid, vakgroep Staatsrecht, Bestuursrecht en Bestuurskunde aan de Rijksuniversiteit Groningen.
Thema-artikel

Verantwoorde algoritmisering: zorgen waardengevoeligheid en transparantie voor meer vertrouwen in algoritmische besluitvorming?

Tijdschrift Bestuurskunde, Aflevering 4 2020
Trefwoorden algorithms, algorithmization, value-sensitivity, transparency, trust
Auteurs Dr. Stephan Grimmelikhuijsen en Prof. dr. Albert Meijer
SamenvattingAuteursinformatie

    Algorithms are starting to play an increasingly prominent role in government organizations. The argument is that algorithms can make more objective and efficient decisions than humans. At the same time, recent scandals have highlighted that there are still many problems connected to algorithms in the public sector. There is an increasing emphasis on ethical requirements for algorithms and we aim to connect these requirements to insights from public administration on the use of technologies in the public sector. We stress the need for responsible algorithmization – responsible organizational practices around the use of algorithms – and argue that this is needed to maintain the trust of citizens. We present two key components of responsible algorithmization – value-sensitivity and transparency – and show how these components connect to algorithmization and can contribute to citizen trust. We end the article with an agenda for research into the relation between responsible algorithmization and trust.


Dr. Stephan Grimmelikhuijsen
Dr. S.G. Grimmelikhuijsen is universitair hoofddocent Publiek Management aan de Universiteit Utrecht, Departement Bestuurs- en Organisatiewetenschap.

Prof. dr. Albert Meijer
Prof. dr. A.J. Meijer is hoogleraar Publiek Management aan de Universiteit Utrecht, Departement Bestuurs- en Organisatiewetenschap.
Thema-artikel

Inzicht in transparantie

Een essay over trade-offs achter algoritmische besluitvorming

Tijdschrift Bestuurskunde, Aflevering 4 2020
Trefwoorden transparency, value conflict, algorithms, trade-offs, public values, ethics
Auteurs Joanna Strycharz Msc, Dr. ir. Bauke Steenhuisen en Dr. Haiko van der Voort
SamenvattingAuteursinformatie

    Algorithms applied in public administration are often criticized for lack of transparency. Lawmakers and citizens alike expect that automated decisions based on algorithmic recommendations to be explainable. The focus of this article is the organizational context behind the idea of transparent algorithms. Transparency is portrayed as one of numerous values that are at play when algorithms are applied in public administration. The article shows that applying algorithms may lead to conflicts between these values. Such conflicts often result in trade-off decisions. Looking from the organizational perspective, we describe how such trade-offs can be made both explicitly and implicitly. The article thus shows the complexity of algorithmic trade-offs. As a result of this complexity, we not only call for more transparency about algorithms, but also more transparency about trade-offs that take place in public administration. Finally, we present a research agenda focused on studying the organization of trade-offs.


Joanna Strycharz Msc
J. Strycharz, Msc is universitair docent Persuasive Communication aan de Universiteit van Amsterdam, Faculteit Maatschappij- en Gedragswetenschappen.

Dr. ir. Bauke Steenhuisen
Dr. ir. B.S. Steenhuisen is universitair docent Organisatie & Governance aan de TU Delft, Faculteit Techniek, Bestuur en Management.

Dr. Haiko van der Voort
Dr. H.G. van der Voort is universitair docent Organisatie & Governance aan de TU Delft, Faculteit Techniek, Bestuur en Management.
Titel

Transparantie en Explainable Artificial Intelligence: beperkingen en strategieën

Tijdschrift Bestuurskunde, Aflevering 4 2020
Trefwoorden transparency, Explainable artificial intelligence, Algorithms
Auteurs Prof. mr. dr. Hans de Bruijn, Prof. dr. ir. Marijn Janssen en Dr. Martijn Warnier
SamenvattingAuteursinformatie

    This article contains a critical reflection on eXplainable Artificial Intelligence (XAI): the idea that AI based decision-making using AI should be transparent to people faced with these decisions. We discuss the main objections to XAI. XAI focuses on a variety of explainees, with different expectations and values; XAI is not a neutral activity, but very value-sensitive; AI is dynamic and so XAI quickly becomes obsolete; many problems are ‘wicked’, which further complicates XAI. In addition, the context of XAI matters – a high level of politicization and a high perceived impact of AI-based decisions, will often result in much criticism of AI and will limit the opportunities of XAI. We also discuss a number of alternative or additional strategies – more attention to negotiated algorithms; to competing algorithms; or to value-sensitive algorithms, which may contribute to more trust in AI-based decision-making.


Prof. mr. dr. Hans de Bruijn
Prof. mr. dr. J.A. de Bruijn is hoogleraar Organisatie & Governance aan de TU Delft, Faculteit Techniek, Bestuur en Management.

Prof. dr. ir. Marijn Janssen
Prof. dr. ir. M.F.W.H.A. Janssen is hoogleraar ICT & Governance aan de TU Delft, Faculteit Techniek, Bestuur en Management.

Dr. Martijn Warnier
Dr. M.E. Warnier is universitair hoofddocent Systeemkunde aan de TU Delft, Faculteit Techniek, Bestuur en Management.
Thema-artikel

Een transparant debat over algoritmen

Tijdschrift Bestuurskunde, Aflevering 4 2020
Trefwoorden AI, ethics, Big Data, human rights, governance
Auteurs Dr. Oskar J. Gstrein en Prof. dr. Andrej Zwitter
SamenvattingAuteursinformatie

    The police use all sorts of information to fulfil their tasks. Whereas collection and interpretation of information traditionally could only be done by humans, the emergence of ‘Big Data’ creates new opportunities and dilemmas. On the one hand, large amounts of data can be used to train algorithms. This allows them to ‘predict’ offenses such as bicycle theft, burglary, or even serious crimes such as murder and terrorist attacks. On the other hand, highly relevant questions on purpose, effectiveness, and legitimacy of the application of machine learning/‘artificial intelligence’ drown all too often in the ocean of Big Data. This is particularly problematic if such systems are used in the public sector in democracies, where the rule of law applies, and where accountability, as well as the possibility for judicial review, are guaranteed. In this article, we explore the role transparency could play in reconciling these opportunities and dilemmas. While some propose making the systems and data they use themselves transparent, we submit that an open and broad discussion on purpose and objectives should be held during the design process. This might be a more effective way of embedding ethical and legal principles in the technology, and of ensuring legitimacy during application.


Dr. Oskar J. Gstrein
Dr. O.J. Gstrein is universitair docent Governance & Innovation aan de Rijksuniversiteit Groningen, Campus Fryslân, Data Research Centre.

Prof. dr. Andrej Zwitter
Prof. dr. A.J. Zwitter is hoogleraar Governance & Innovation aan de Rijksuniversiteit Groningen, Campus Fryslân, Data Research Centre.
Dossier

Wat is rechtvaardige AI?

Een kader voor het ontwikkelen en toepassen van algoritmes voor automatische besluitvorming

Tijdschrift Beleid en Maatschappij, Aflevering 4 2020
Auteurs Dr. Tjerk Timan en Dr. Francisca Grommé
Auteursinformatie

Dr. Tjerk Timan
Dr. Tjerk Timan is onderzoeker bij de afdeling Strategy, Analysis & Policy van de Nederlandse Organisatie voor Toegepast Natuurwetenschappelijk Onderzoek (TNO).

Dr. Francisca Grommé
Dr. Francisca Grommé is assistant professor aan de Erasmus School of Social and Behavioural Sciences/Organizational Dynamics in a Digital Society, Erasmus Universiteit Rotterdam.
Artikel

Access_open ‘Garbage in, garbage out’

Over predictive policing en vuile data

Tijdschrift Beleid en Maatschappij, Aflevering 3 2020
Trefwoorden dirty data, predictive policing, CAS, discrimination, ethnic profiling
Auteurs Mr. Abhijit Das en Mr. dr. Marc Schuilenburg
SamenvattingAuteursinformatie

    Predictive tools as instruments for understanding and responding to risky behaviour as early as possible are increasingly becoming a normal feature in local and state agencies. A risk that arises from the implementation of these predictive tools is the problem of dirty data. The input of incorrect or illegally obtained information (‘dirty data’) can influence the quality of the predictions used by local and state agencies, such as the police. The article focuses on the risks of dirty data in predictive policing by the Dutch Police. It describes the possibilities to prevent dirty data from being used in predictive policing tools, such as the Criminality Anticipation System (CAS). It concludes by emphasizing the importance of transparency for any serious solution looking to eliminate the use of dirty data in predictive policing.


Mr. Abhijit Das
Mr. Abhijit Das is docent/onderzoeker straf(proces)recht aan de afdeling Strafrecht en Criminologie van de Vrije Universiteit Amsterdam.

Mr. dr. Marc Schuilenburg
Mr. dr. Marc Schuilenburg is universitair docent criminologie aan de afdeling Strafrecht en Criminologie van de Vrije Universiteit Amsterdam.
Dossier

Access_open Zicht op werk: grenzen aan het digitaal meten van werkenden

Tijdschrift Beleid en Maatschappij, Aflevering 2 2020
Trefwoorden data analytics, artificial intelligence, workplace surveillance, digital monitoring, quality of work
Auteurs Roos de Jong MSc, Djurre Das MSc, Linda Kool MSc MA e.a.
SamenvattingAuteursinformatie

    Technological advancements in the field of data analytics, algorithms and AI have dramatically increased opportunities for workplace monitoring. In this article, we discuss some of these digital technologies, and examine their impact on employment relationships and the quality of work. Based on desk research, literature review and interviews, the Rathenau Institute examined a wide range of digital instruments, their scientific basis, implications for the quality of work and relevant legal frameworks. Digital monitoring technologies often quantify work activities. We argue that it is important for organisations to realise that such quantification often negatively impacts both job quality and employment relationships. Responsible use of digital monitoring tools not only requires a broad societal and political dialogue about privacy, discrimination and workload but also a critical reflection on the aim of organisations to use data to understand workers, while not everything of value can be captured in data.


Roos de Jong MSc
Roos de Jong MSc is als onderzoeker verbonden aan het Rathenau Instituut.

Djurre Das MSc
Djurre Das MSc is als onderzoeker verbonden aan het Rathenau Instituut.

Linda Kool MSc MA
Linda Kool MSc MA is themacoördinator ‘Digitale Samenleving en AI’ bij het Rathenau Instituut.

Dr. ir. Melanie Peters
Dr. ir. Melanie Peters is directeur van het Rathenau Instituut.

    Overheidsbeleid heeft steeds meer te maken met digitalisering en data-ificering van de samenleving en het menselijk gedrag. Dat betekent uitdagingen voor beleidsevaluatoren. In dit artikel gaat het om éen van de daarmee gepaard gaande verschijnselen: Big Data en Artificiële Intelligentie (BD/AI). Het artikel stelt, na erop gewezen te hebben dat de evaluatieprofessie langere tijd niet erg actief op digitaal gebied is geweest, ten eerste de vraag wat BD/AI te bieden hebben aan evaluatieonderzoek van (digitaal) beleid. Vijf toepassingsmogelijkheden worden besproken die de kwaliteit, bruikbaarheid en relevantie van evaluatieonderzoek kunnen bevorderen. De tweede vraag is wat evaluatieonderzoek te bieden heeft, als het gaat om het analyseren/onderzoeken van de betrouwbaarheid, validiteit en enkele andere aspecten van Big Data en AI. Ook daar worden verschillende mogelijkheden (en moeilijkheden) geschetst. Naar het oordeel van de schrijver is het enerzijds dienstig (meer) gebruik te maken van BD/AI in evaluatieonderzoek, maar doen onderzoekers er ook goed aan (meer) aandacht uit te laten gaan naar: de assumpties die aan BD/AI ten grondslag liggen (inclusief het ‘black box’-probleem); de validiteit, veiligheid en geloofwaardigheid van algoritmes; de bedoelde en onbedoelde consequenties van het gebruik ervan; én de vraag of de claims dat digitale interventies die mede gebaseerd zijn op BD/AI effectief (of effectiever zijn dan andere), onderbouwd en valide zijn.


Frans L. Leeuw
Frans L. Leeuw (socioloog) is hoogleraar Recht, Openbaar Bestuur en Sociaalwetenschappelijk onderzoek aan Maastricht University. Eerder was hij o.a. directeur WODC, Hoofdinspecteur Hoger Onderwijs Onderwijsinspectie, hoogleraar evaluatieonderzoek Universiteit Utrecht, directeur doelmatigheidsonderzoek Algemene Rekenkamer en decaan Humanities Open Universiteit. Hij bereidt een boekje voor over 125 jaar empirisch-juridisch onderzoek, inclusief de nieuwste loot: digitaal empirisch-juridisch onderzoek. Eerdere publicaties handelden over diverse onderwerpen met als rode draden evaluatieonderzoek, theorieën, gedragsmechanismen, benutting van onderzoek en juridische thema’s.
Thema-artikel ‘Uitgesproken Bestuurskunde’

Van wie is de verzorgingsstaat?

Bestuurskunde als zelfbestuurskunde

Tijdschrift Bestuurskunde, Aflevering 2 2019
Trefwoorden institutional analysis, common-pool resources, welfare state, self-governance
Auteurs Prof. dr. Menno Fenger
Samenvatting

    The work of Elinor Ostrom suggests that under certain conditions local communities are better able to sustainably manage so-called common pool resources than an external party such as government. In this article I explore whether and to what extent those conditions also apply to the governance of the Dutch welfare state. I show that in the current participation society there are numerous examples in which self-governance seems to be successful and in which Ostrom’s conditions seem to play an important role. On that basis, I come to the conclusion that citizens – under certain institutional conditions – may be better able to resolve social problems among themselves than through external interventions. This requires a shift from public administration to self-administration.


Prof. dr. Menno Fenger
Boekensignalement

Democratie tussen verlangen en vermoeidheid

Tijdschrift Beleid en Maatschappij, Aflevering 4 2018
Trefwoorden Interactive democracy, Emancipation, Interpassivity, Neoliberalism, Algorithms
Auteurs Robert J. van Putten MA MSc
SamenvattingAuteursinformatie

    In this feature authors review recently published books on subjects of interest to readers of Beleid en Maatschappij.


Robert J. van Putten MA MSc
Robert J. van Putten MA MSc is filosoof en bestuurskundige en werkzaam als promovendus en docent aan de afdeling Bestuurswetenschappen & politicologie van de Vrije Universiteit Amsterdam.

Marleen Stikker
Artikel

De voorspellende overheid

Transparantie is noodzakelijk, maar hoe?

Tijdschrift Bestuurskunde, Aflevering 1 2016
Trefwoorden predictive analytics, transparency and accountability, preemptive predictions, public sector
Auteurs prof.dr. Ronald Leenes
SamenvattingAuteursinformatie

    Public administrations have always dealt with large volumes of data. They are now increasingly adopting sophisticated big data technologies to further leverage the data. Data provided by citizens, observed by sensors, deduced and inferred from diverse data sets are being used for decision making and making (pre-emptive) predictions about the behaviour of citizens and groups of citizens. The data and algorithms are not neutral nor flawless, but contain biases and may induce harms to individuals, such as discrimination, loss of autonomy, infringing their privacy. Big data decision making systems are usually opaque. Providing transparency about input, process, and even outcomes may be difficult due to the complexity inherent to the technology and even undesirable because it could affect the effectiveness of the system. This lack of transparency is at odds with the Rule of Law, which requires transparency and accountability of government action. What transparency should entail in the context of predictive analytics, however, is unclear. This short article points out some of the issues at stake.


prof.dr. Ronald Leenes
prof. dr. R.E. Leenes is hoogleraar aan de Tilburg University
Interface Showing Amount
U kunt door de volledige tekst zoeken naar alle artikelen door uw zoekterm in het zoekveld in te vullen. Als u op de knop 'Zoek' heeft geklikt komt u op de zoekresultatenpagina met filters, die u helpen om snel bij het door u gezochte artikel te komen. Er zijn op dit moment twee filters: rubriek en jaar.