Tidligere denne uken ble det avslørt at Apple og andre teknologigiganter hadde brukt YouTube-undertekster for å trene AI-modellene sine. Apple har nå avklart at deres OpenELM-modell, som er en åpen kildekode-språkmodell, ikke driver noen av deres Apple Intelligence-funksjoner.
Kontroversen rundt YouTube-undertekster
Studier viste at over 170 000 videoer fra populære YouTube-kanaler som MKBHD og Mr. Beast ble brukt til å trene AI-modeller. Dette har skapt en debatt om databruk og personvern, spesielt siden mange av disse videoene ble brukt uten uttrykkelig samtykke fra skaperen.
Apples OpenELM-modell
Apple lanserte OpenELM-modellen som en del av deres bidrag til forskningsmiljøet og åpen kildekode-utvikling. Ifølge Apple ble modellen laget for forskningsformål og er tilgjengelig for publikum via deres Machine Learning Research-nettsted. Apple har understreket at OpenELM ikke er integrert i Apple Intelligence-systemer og at data fra YouTube-undertekster derfor ikke brukes til å drive Apple Intelligence.
Apple Intelligence og databruk
Apple har tidligere forklart at Apple Intelligence-modellene deres er trent på lisensierte data og offentlig tilgjengelige data som samles inn av webcrawleren. Denne tilnærmingen er utformet for å sikre at dataene er lovlig innhentet og egnet til formålet.
Reaksjoner fra foreningen
Nyhetene om bruken av YouTube-data har ført til en bølge av reaksjoner fra både skapere og forbrukere. Mange skapere er bekymret for at innholdet deres blir brukt til å trene AI-modeller uten deres tillatelse, noe som reiser spørsmål om opphavsrett og kompensasjon.
Apples fremtidsplaner for OpenELM
Apple har også annonsert at de ikke har planer om å utvikle nye versjoner av OpenELM-modellen. Dette kan tolkes som et svar på den nylige kontroversen og en måte å forsikre publikum og interessenter om deres intensjoner og praksis.
Andre selskapers bruk av YouTube-data
I følge rapporter fra Wired har selskaper som Anthropic og NVIDIA også brukt YouTube-undertekster for å trene AI-modellene sine. Dette peker på en bredere bransjepraksis for å utnytte offentlig tilgjengelige data for AI-opplæring, som potensielt kan føre til ytterligere forskrifter og retningslinjer i fremtiden.
Hva betyr dette for fremtiden?
Denne situasjonen fremhever behovet for klare retningslinjer og retningslinjer rundt bruk av offentlig tilgjengelige data for AI-trening. Tekniske giganter som Apple og Meta står overfor økende press for å sikre at deres datainnsamling og opplæringspraksis er etisk og juridisk forsvarlig.
Apples engasjement i åpen kildekode
Til tross for kontroversen, fortsetter Apple å støtte åpen kildekode-initiativet og fremme innovasjon innen AI-forskning. OpenELM-modellen, som er fritt tilgjengelig for forskere og utviklere, reflekterer Apples forpliktelse til å bidra til den bredere teknologiske utviklingen.
Konklusjon
Apples avslag på å bruke OpenELM for deres Apple Intelligence-systemer viser deres forsøk på å navigere i komplekse etiske og juridiske landskap. Mens debatten om bruken av YouTube-data for AI-opplæring fortsetter, er det klart at åpenhet og ansvarlighet vil være nøkkelelementer i fremtidig teknologisk utvikling. Det er avgjørende at både selskaper og regulatorer jobber sammen for å skape et rammeverk som balanserer innovasjon og brukerrettigheter.
For mer informasjon om Apple Intelligence og relaterte emner, kan du også lese artiklene på We❤️Apple.dk:
Dele:
Meta og Apple: Tilbakeholdelse av AI-modeller i EU
Cellebrite kan ikke låse opp de fleste iPhones som kjører iOS 17.4 og nyere