Category Archives: AI

När, hur och varför passar AI i olika examinationsformer? SUHF 231024

231024 var jag med i ett onlineseminarium om AI och examination på flera olika områden. Det var inspel och diskussioner i form av en panel online. Moderator var LTU:s rektor Birgitta Bergvall-Kåreborn som också är ordförande i SUHF:s expertgrupp för högskolepedagogiska frågor. ITHU höll i tekniken.

Det var ca 1000 personer anmälda till eventet.

Linda Barman, Kungliga Tekniska Högskolan
Jan-Olof Gullö, Kungliga Musikhögskolan
Pernilla Josefsson, Södertörns högskola
Peter Parnes, Luleå tekniska universitet

Här hittar ni mer information om eventet och nedan en inspelning.

Generative AI for learning: Opportunities and challenges – Taiga @ Umeå University

On 231020 1215-1300, I gave an invited talk as part of the #frAIday-series at Taiga @ Umeå University on how generative AI can enhance learning and education.

Below is a video of the talk (35 minutes), and here are the slides.

Here are answers to the questions asked by the audience via chat after the talk (not in the recording). My answer in italics follows the questions.

How should we approach the assessment of student writing skills? Traditionally, this has been accomplished through take-home exams and thesis work. However, it now appears that students can seek assistance from AI tools. Should we continue with proctored on-campus examinations, or should we reconsider what it means to be proficient in writing a text?

Let’s look more at the whole learning process and focus less on the final artifact, where we work more with continuous examination. Another benefit of this approach is that the student gets more immediate feedback, which supports deeper learning. Compare this to getting feedback based on a test several weeks after the test.

Suppose teachers want to continue with reports written outside of a proctored environment. In that case, they need to combine it with some other examination method, such as a short verbal examination, to judge if the student knows the content submitted in the report.

Experimentally, they can also try using AI to help them judge if the students know the subject.

Can the result be that we re-evaluate the necessity to learn certain tasks, just like what happened when calculators were introduced? E.g.: Is there a value in knowing how to summarise information, or answer a factual question (if a machine can do it better…). If not, why should we teach it ?

The last part is the crucial question here. If we have AI assistants that can answer everything and solve all our tasks for us, then what should the students learn? Well, to judge if an answer is correct, they need to have a basic understanding and knowledge of the area in question. Thus, we should teach in a broader way where students can use AI to help them solve more specific problems in the future.

A comment on the calculator analogy: it is actually not a great analogy to the current situation with AI-assistant learning, as the calculator could only solve (initially) fundamental mathematical problems. The AI assistants in 2023 can already now solve very advanced problems, problems that are typically above most people’s knowledge.

A question to @all: Does your university have a policy or general recommendations for handling generative AI?

I have looked around and discussed with representatives from other Swedish universities, and most of them are working on some policy regarding AI usage in education and research. At Luleå University of Technology, I have been part of a group working on such a policy document. In May 2023, we released a first draft that you can find here. It has proven to be a time-consuming process to incorporate all comments and cover all edge cases. Ultimately, it comes down to definitions where it is hard to define AI and generative AI, where the document could also be used as a basis for supporting disciplinary cases around cheating using AI.

Also, the guidelines need to be updated regularly as they quickly can become out dated.

If at some point all texts used for AI training will be AI-generated, what will be the quality of that AI?

This has already proven to be a problem with other services trained using public content. Google Translate cannot be trained using public data as so much text exists today online that is translated using automatic translation services. We will see the same issue when training AI in the future, and the selection of data to train on has to be done very selectively.

What happens when AI software meets quantum computing?

The intersection of AI and quantum computing is a subject of significant interest and speculation. Quantum computing has shown promise in efficiently solving complex optimization problems, often computationally expensive for classical computers.

Quantum computers could drastically speed up machine learning algorithms. Some computations that take a conventional computer billions of years to complete could be done in seconds by a quantum computer. Many AI tasks are fundamentally optimization problems.

When we have working quantum computing machines, they could very drastically change AI-learning. It’s important to note that practical, scalable quantum computing has yet to be achieved. We’re still in the early stages of understanding what’s possible when these two technologies intersect.

Instead of wondering IF students are using AI, why not just assume that they are and will. Then with that in mind, we organize our courses and examinations based on this assumption. Not saying that this will make life easy for teachers – but at least it provides a new point of orientation for teachers. Exactly. You said said it. We need to evolve our education based on our new reality with AI.

Yes, I strongly agree with you on this. Independently of policies and rules, students will both use AI tools to help them learn and to help them cut corners. We need to adapt our education to a new reality.

You talked about students’ mental model of a concept would raise the questions “am I wrong or is the AI wrong”, it’s then a risk between learning and misinformation. Is AI literacy enough to support this issue in education as a way to encourage students to fact check everything ChatGPT outputs? Or are we (humans) too impressionable and vulnerable to confirmation bias for example such that false information that matches our mental models leads to us not bothering to check? Which “force” is stronger.

I believe that all humans are lazy at heart. Humans have always tried to find various tools to make our lives easier. AI changes how much effort we put into the mental process, and just as you indicate in your question, it will, to some extent, lead to us not bothering with fact-checking, and we will accept the answer AI gives us and move on to the next question or task. This is a real challenge when it comes to how we conduct education and what the students should learn.

Quite a few analysts say only ten or so large companies will write code at low level needed for ‘super efficiency’ every other software company will ‘write’ using natural language, that is translated into code by LLMs.

This debate has long been ongoing, and we have seen numerous efforts with both graphical and low-code programming. Some groups that do not know how to program very well have successfully created less sophisticated software using low-code approaches. With AI support, this group will surely grow and we will see more advanced computer programs designed using AI tools.

AI-vision will also play an important role here, where users can sketch the graphical part of their software, and AI can create programs to realize the sketches.

That is all. Good luck with your AI efforts.

Kommer mänskligheten att gå under pga AI?

Det finns en ganska stor risk att det kommer att gå åt pipsvängen pga AI:s nuvarande utveckling. Enligt vissa är sannolikheten ända upp till 20%.

Men om det samtidigt betyder att AI kan rädda en massa liv genom t.ex. medicinska framsteg, ska vi då stoppa den nuvarande utvecklingen av AI-system?

Historiskt har den mest intelligenta varelsen på jorden lett utveckling och varit högst upp i pyramiden men nu utvecklar vi en ny typ av intelligens som är på god väg att bli intelligentare än människan. Kommer det att leda till en utrotning av mänskligheten?

Ska vi vara rädda för AI:s utveckling eller ska vi kanske istället säga: – Det var skoj så länge det varade?

Konstgjord andning med nytt anställningsavtal?

I USA har manusförfattare strejkat sedan i våras för bland annat högre ersättning och rädsla för att ersättas av AI. Nu när de är överens så är det de normala bitarna som högre lön med i avtalet MEN också att “Hollywood” måste anställa ett visst antal författare per produktion (film, TV-serie) och inte bara använda AI.

Det kommer alltså en teknik som gör ett arbete mer effektivt per peng enligt arbetsgivaren, men arbetsgivaren tvingas då anställa en viss mängd människor per projekt istället för att ersätta delar av de anställda med den nya tekniken.

Kommer effekten att bli att både AI och människor används för samma jobb? Kommer människorna att långsiktigt sitta bredvid och titta på? Använder författarna själva inte AI för att hjälpa dem i deras arbete?

Är detta rätt väg att gå? Ska vi göra så i alla branscher?

Jag är övertygad om att vi inte kan stå emot den tekniska utvecklingen och att göra konstgjord andning genom att tvinga företag att anställa är fel väg att gå.

Vad tycker du?

Kurs Generativ AI och lärande hösten 2023

Jag jobbar mycket med uppdragsutbildning på Luleå tekniska universitet där jag ger kurser och föreläsningar till företag och organisationer som är intresserade av AI i olika former.

Under juni 2023 gav jag en uppdragsutbildning, Generativ AI och lärande på 40 studietimmar varav 6h timmar är träffar online fördelat på 3 tillfällen och resten (34h) är egna studier via filmer och material från mig och inlämningsuppgifter. 231006 börjar nästa omgång av denna kurs och ni kan anmäla er till den senast 230927. Läs mer här. OBS kursen är inte gratis då svenska lärosäten inte får ge gratis uppdragsutbildning.

Vi säljer också en kortare variant på 10h studietimmar med eller utan träffar uppsatt för just din organisation med mig som lärare. Under 2023 och 2024 går flera omgångar av detta upplägg. Vill du veta mer så kontakta mig.

Här får ni en kort introduktion till innehållet.

Kursomgången juni 2023 fick följande omdömmen utav max 6.0 från deltagarna: Helhetsintrycket för kursen är 5.42 och om deltagarna skulle rekommendera kursen fick 5.58. Några urval av kommentarer gällande vad deltagarna tyckte var bra med kursen:

  • Att man kan göra momenten i egen takt, att få prata med andra om innehållet, att reflektera med regelbundenhet och tvingas skriva ned sina tankar utan att se andras svar, intressant att få höra olika röster om AI i olika filmer.
  • Bra med Parnes som har lång erfarenhet inom området, bra urval av information, filmer, tips på verktyg och liknande. Mycket givande och skapar intresse av att lära mer.
  • Entusiastisk kursledare.
  • Bra med inspelat material. Väldigt roligt, intressant och givande att får nätverka med lärare och utbildningsfolk inom olika sektorer.
  • Lärarens insatthet i området.
  • Ta del av andras tankar, reflektioner och erfarenheter. Komprimerad avgränsad i tid i det officiella genomförandet, men samtidigt “stretchad” genom några månader innan slutuppgift ska vara inlämnad samt åtkomst till material 1 år.
  • Lärarens insatthet i området.
  • Bra föreläsningar och bra texter. Trevligt bemötande och stort engagemang från läraren. Bra med kombination av Zoom-träffar och asynkrona delar i Canvas. Jag tycker slutuppgiften var jättebra, så att man fick tillämpa också och reflektera över vad som hände och hur det fungerade.

Varmt välkomna att delta i mina kurser!

Rekommendationer gällande användning av Generativ AI för pedagogiska praktiken och forskningsetiken vid Luleå tekniska universitet – remiss maj 2023

Under våren har jag varit med i en arbetsgrupp för att ta fram rekommendationer gällande användning av Generativ AI inom den pedagogiska praktiken och forskningsetiken vid Luleå tekniska universitet.

Dokumentet är ute på remiss inom LTU till 230831 men jag tänkte att det finns intresse för andra att läsa det också.

Arbetsgruppen består av Sebastian Gabrielsson (prodekan FFN), professor Peter Parnes, Marcus Strömbäck Hjärne (HPC) samt professor Staffan Lundström (forskningsetiskt råd).