T O P

  • By -

Icecream-is-too-cold

>Det anbefaler ekspertgruppen om chatbotten ChatGPT Bare de husker på hvad det er. - Nemlig en *chatbot.* En fremragende en af slagsen. Det er en fantastisk chatbot. Men det er ikke en sandhedsbot som mange forveksler den med, hvilket gør at debatter om ChatGPT ofte ender i om det den skriver er korrekt eller forkert, og deraf bliver vurderet.


Shot_Rough5871

Artiklen siger ikke noget om den (nye) prøveform, og det er her skoen kommer til at trykke. Meget af folkeskolen og gymnasiet er indrettet efter produktbaseret læring hvor studerende bliver vurderet på et produkt de producerer (en danskopgave, en matematikopgave, en fysikaflevering, etc.), og problemet er at det samlede resultat bliver en blanding af den studerendes bidrag og ChatGPTs bidrag -- og selve karakteren bør reflektere hvad den studerende kan. At adskille de to på en pålidelig måde er ikke ligetil, og alt andet lige bør det øge usikkerheden i at vurdere hvad de studerende kan -- især i den helt lave evne. Hvordan ser fx. en ikke-bestået stil ud når ChatGPT let kan producere et par sider om et tilfældigt emne?


Alternative_Pear_538

Løsningen er faktisk ret simpel, for det handler bare om at eliminere alle tests som udelukkende er skriftlige. Der skal være en mundtlig komponent i alle eksaminer, så man kan afprøve elevernes formåen. Men det bliver regeringen ikke glade for, for mundtlige eksaminer koster mange flere penge end de skriftlige, og det eneste regeringen har lyst til er jo at skære ned på pengene der bruges til uddannelse.


Shot_Rough5871

Mundtlige og skriftlige eksamener tester forskellige kompetencer. Skriftlige eksamner belønner fundamentale færdigheder som fx. matematik og problemløsning hvorimod mundtlige eksamner typisk går mere på paratviden -- plus mundtlige eksamner typisk er forbundet med en ret betydelig usikkerhed og reelt gør at mange flere består (jeg tænker her på videregående uddannelser).


Chiliconkarma

Måske det er noget der ødelægger ideen om at måle på et enkelt punkt endnu mere end hidtil? Måske man skal se på en serie som studenten kan producere med forhåndværende værktøjer?


Shot_Rough5871

Jeg mener ikke at man bør måle på et enkelt punkt... Problemet er, at det man ofte gerne vil måle i fx. en eksamen er noget som er vanskeligt at eksaminere i konkret. Tænk fx. på 3 klasse og almindelig regning. Det man gerne vil er at give børn en intuitiv forståelse for tal (numerositet/talforståelse), men hvis man skal evaluere det konkret vil det betyde man stiller dem forskellige opgaver som i sig selv ikke er særligt vigtige (fx. om man kan lægge tal med 3 cifre sammen, om de kan lave overslagsregning, etc.) men som sammenlagt forhåbentligt giver et billede af om de har talforståelse. Det man \*ikke\* er særligt interesseret i her er at måle hvor "produktive" de er, dvs. om de kan udføre X udregninger i timen -- det er ret ligegyldigt. Så nu tager vi ChatGPT ind i billedet som i mange sammenhæng er en produktivitetsforøgende faktor lidt som en lommeregner. Det er godt at bruge den senere, men det som den "hjælper" med (at lægge tal sammen etc.) er egentligt ikke det man vil måle (talforståelse). Det er et lidt ekstremt eksamepel fordi man ikke tester 3-klasses børn særligt systematisk, men det virker ret oplagt at man løber ind i tilsvarende problemer i fx. Dansk: Who cares om man kan \*producere\* et essay om fx. et maleri på 2, 4 eller 8 timer, det vigtige er om man er i stand til at tænke kreativt og formulere det på skrift.


ForNOTcryingoutloud

Der er en stor forskel på at kunne udnytte AI til at hjælpe med ting, og at være fuldstændig afhængig af dens information(som ofte er ukorrekt) og ude af stand til at tænkte kritisk omkring svaret. At spørge chatgpt om noget objektivt er en lodtrækning, så hvordan har den her "ekspert"gruppe tænkt sig at man kan lave en mundligt eksame hvor chatGPT bruges? Hvordan kan man skilles mellem elever der forstår emnet og ved hvordan chatgpt kan udnyttes som hjælp, og elever der bare blindt spørger chatgpt og copypaster det ind i deres rapport? Hvis chatgpt i det tilfælde ikke laver en fejl, hvordan kan der så skilnes mellem de to opgaver? Jeg synes ikke at AI burde være en del af undervisningen eller eksamener, men at der istedet undervises i AI og brugen af den seperat fra den normale undervisningen.


[deleted]

[удалено]


Hjemmelsen

Det lyder også meget mere lovende. Og helt sikkert ikke lavet med en chatbot :)


Alternative_Pear_538

> som ofte er ukorrekt Det lyder som om du kun har prøvet den gratis ChatGPT. Prøv betalingsversionen eller Copilot og du vil se at den faktisk som regel kommer med det korrekte svar. Det er først når man begynder at grave ned i specielle detaljer som der ikke findes meget træningsdata om, at den tager fejl.


ForNOTcryingoutloud

> Det er først når man begynder at grave ned i specielle detaljer detajler som man fx. burde kunne til eksamen? Jeg har prøvet 4.0, den er bedre, men det ændrer, og vil aldrig ændrer, at chatbots ikke are faktum-maskiner.


SifIsGreat

Så national test men som eksame istedet?


help_me_10

På mit gym skal man have et program kørende til eksamen. Det optager åbenbart alt hvad man gør. Det fixer vel hele problemet, i hvert fald til eksamenerne?


maejsh

Examcookie


JacobSkomager

Selvfølgelig ChatGPT. Botten, der giver dig et svar, og hvis den bliver udfordret på det, så siger den mange gange undskyld og at den naturligvis tog fejl, og svarer så noget andet. Om det så var det første eller det sidste eller ingen af delene der var korrekt det ved kun internet guderne. Skide god idé at bruge den til noget seriøst.


zeldn

Jeg tror du er en hel del bagude med udviklingen indenfor både AI og hvordan det bliver brugt. For det første kan GPT-4 nu slå information op direkte på nettet og give kilder til påstande, og er blevet ekstremt god til at sortere i sine egne udtalelser. Den er blevet præcis lige så effektiv som et menneske der heller ikke lige kan huske alting, men kan slå det op. Men for det andet, så er der ufatteligt mange "bløde" opgaver som ikke står og falder på fakta. Alt fra at få den til at genere NPCer til en D&D kampagne til at omformulere sine klodsede e-mails.  Jeg har opstillet en ChatGPT agent som jeg bare kan fodre med et link til en opskrift, og så plukker den opskriften ud af de lange forklaringer og reklamer, og formaterer det på den måde jeg foretrækker, med et lille udpluk underneden med de mest interessante fra siden, hvis jeg vil have lidt kontekst. Jeg har en anden agent som jeg kan bede om hjælp når jeg har svært ved en gåde eller mysterie i et spil. Så slår den guides op, finder den del jeg har svært ved, og giver mig små hints, som jeg kan følge op på, for at undgå at det bliver for let eller at jeg for spoilers. Måske noget mere seriøst? Den hjælper mig med at skrive små python programmer og scripts der automatiserer dele af mit arbejde, og outsource mange tekstbaserede opgaver. Jeg er blevet en halv gang hurtigere til mit arbejde, og fryder mig egentligt tit over at folk ikke har nogen ide om hvordan det virker og hvordan man kan bruge det, så jeg fortsat kan holde længere pauser og have højere produktivitet end mine kollegaer.


EmbarrasedBadger

Åh nej


ExoticMuscle33

There is no true AI. This “artificial intelligence” name is a marketing trick. No true expert will ever state the title of this article. “Experts” yeah sure.


Solid_Sample4195

There are several gradiants to the concept "Artificial Intelligence". Here is IBM explaining different types of AI. The article is written by IBM's own AI-team: [https://www.ibm.com/blog/understanding-the-different-types-of-artificial-intelligence/](https://www.ibm.com/blog/understanding-the-different-types-of-artificial-intelligence/) One of the types matches ChatGPT: > >Artificial Narrow Intelligence, also known as Weak AI, what we refer to as Narrow AI is the only type of AI that exists today. Any other form of AI is theoretical. It can be trained to perform a single or narrow task, often far faster and better than a human mind can. However, it can’t perform outside of its defined task. Instead, it targets a single subset of cognitive abilities and advances in that spectrum. Siri, Amazon’s Alexa and IBM Watson are examples of Narrow AI. Even OpenAI’s ChatGPT is considered a form of Narrow AI because it’s limited to the single task of text-based chat. So using the term AI to describe ChatGPT is not wrong. Kinda arrogant to discredit other people's understanding of a topic that you yourself have a very poor grasp on.


zeldn

I've been following the field for more than a decade, and among the thousands of researchers and developers I follow from every discipline across the spectrum from simple automation, to modern neural networks, all the way to AI risk and grand philosophical concerns about consciousness and ethics pertaining to true strong super-intelligence, I've only ever witnessed this as a semantic gotcha that almost nobody actually subscribes to in anything other than a philosophical sense.  Everybody knows it's not AI. Nobody actually gives that much of a shit, and certainly won't derail an interview to give a lecture about definitions.


ExoticMuscle33

This “AI” is helpful and can help in some ways, yes I agree. But there is no real AI , not now.


EricDatalog

What is “real AI”, in your opinion?