|
Lisa Pouels, afgestudeerd data scientist, onderzocht fairness in GraphRAG-systemen en werd hiervoor genomineerd voor de Responsible Internet Prijs van de Koninklijke Hollandse Maatschappij der Wetenschappen. Haar onderzoek vergeleek verschillende taalmodellen op hun vermogen om vooroordelen te herkennen en te vermijden bij het beantwoorden van ambigue vragen. De resultaten toonden dat Qwen 2.5 en GPT 4.1 nano het best presteerden in het herkennen van onduidelijke vragen, terwijl DeepSeek uitblonk in fairness. Lisa ontdekte dat zelfs kleine veranderingen in prompt-formulering grote invloed hebben op de eerlijkheid van antwoorden. Ze benadrukt dat fairness contextafhankelijk is en per toepassing anders gedefinieerd moet worden. Onderwerpen - Onderzoek naar fairness in GraphRAG-systemen
- Vergelijking van verschillende taalmodellen op fairness en accuracy
- Impact van prompt-formulering op uitkomsten
- Context-afhankelijkheid van fairness
- Praktische toepassingen van AI-kennis
LinksGenoemde entiteiten: Koninklijke Hollandse Maatschappij der Wetenschappen - OpenAI - Alibaba - DeepSeek - Mistral - Llama - Falcon Stuur ons een bericht Aigency Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer! |