Expert: Umělá inteligence nám časem pomůže s peer review

St, 8.11.2023
| Originální článek z: Universitas/Filip Vrána
Modely jako ChatGPT nacházejí ve vědě uplatnění při krácení a shrnování textů, psaní žádostí i zpracování dat.
Video placeholder
  • Foto: Universitas/AI: Expert - Umělá inteligence nám časem pomůže s peer review
  • Video: TOVEK Video: Jakub Sedláček - řečník konference Má mozek ještě šanci? 9. listopadu 2023

Podle Jakuba Sedláčka z Národního institutu SYRI a Univerzity Karlovy může AI časem sloužit i jako první krok k peer review, podobně jako dnes procházejí závěrečné práce detekcí plagiátů. Zároveň ale usnadní šíření dezinformací: „Tuhle pandořinu skříňku už nelze zavřít.“

Neuronovou síť Stable Diffusion si každý uživatel může zdarma stáhnout a dotrénovat na vlastních datech, a tedy naučit generovat cokoli a kohokoli v jakémkoli kontextu. I dezinformace. Nicméně manipulace obrazu není nic nového, vymazávat lidi z fotografií nechával už přinejmenším Stalin, připomíná Jakub Sedláček. Ilustrační fotky k článku vytvořil právě pomocí Stable Diffusion.

Jak se AI za rok etablovala ve vědě?

Poctivá odpověď by vyžadovala široký průzkum. Ale co vidím kolem sebe i online, velké jazykové modely (angl. zkratka LLM, large language models, tedy nástroje generující texty, jako je například ChatGPT, pozn. red.) se pomalu etablují v několika rolích. Používají se k parafrázování a reformulaci myšlenek, například lepší angličtinou; ke krácení a sumarizaci textů; jako generátory hezké „vaty“ třeba v grantových žádostech a závěrečných zprávách; jako programovací asistenti při analýze dat.

Méně známá je schopnost pokročilejších modelů s delším kontextovým oknem (např. GPT-4) provádět zpracování a analýzu dat v podstatě přímo. Nahrajeme data, řekneme LLM, co s nimi má udělat a ať vrátí například hotové vizualizace. Zde pochopitelně narážíme na jistou inherentní nespolehlivost současných LLMs, která nikdy neumožňuje takovéto analýze věřit na 100 procent. Jistější tedy bývá cesta využití LLM jako programovacího asistenta, případně v kombinaci s prostředím, které LLM umožňuje kód rovnou spouštět a provádět analýzu s jeho pomocí. Jde například o plugin Advanced Data Analysis pro ChatGPT nebo volně dostupný Open Interpreter.

Universitas: Ilustrační fotky k článku vytvořil Jakub Sedláček pomocí Stable Diffusion

Z minulosti také známe kauzy s falšováním dat ve vědeckých článcích. Bude jeho odhalení nyní obtížnější? Jak se tomu bránit?

Podobně jako u šíření a potírání dezinformací, i zde může AI sloužit na obou stranách. Ano, bude například možné nahrát soubor s daty a říct LLM, ať je nenápadně upraví tak, aby z nich vyplývalo něco, co z nich v původním stavu nevyplývá. To pochopitelně vždy šlo provést i ručně, ale zde to může jít rychleji a přesvědčivěji. A teoreticky i u médií, kde to dříve nebylo tak snadné – například u vizuálních a zvukových záznamů. Co se obrany týče, věřil bych v existující nástroje. Například při peer review může AI obrovsky urychlit a ulehčit srovnání s existujícím výzkumem, a tedy i napovědět, kde něco nehraje. Dokonce si dovedu velmi dobře představit, že časem bude první krok review vypadat tak, že výzkum projde nějakým automatickým nástrojem, který bude mít „v hlavě“ všechnu oborovou literaturu. Podobně jako dnes procházejí třeba závěrečné práce detekcí plagiátů.

V roli vědce se zabýváte mimo jiné právě dezinformacemi. Už jsme si zvykli na hoaxy a poplašné zprávy, ale co fotky vytvořené AI?

Revoluce v generování obrazu „umělou inteligencí“ nastala teprve v minulém roce, takže jsme si skutečně ještě tak docela zvyknout nemohli. Třeba známá služba Midjourney dnes skutečně dovede generovat velice přesvědčivé fotky. Neuronovou síť Stable Diffusion si dokonce každý uživatel může zdarma stáhnout a dotrénovat na vlastních datech, a tedy naučit generovat cokoli a kohokoli v jakémkoli kontextu. Na druhou stranu je dobré připomenout, že manipulace obrazu není nic nového. Třeba vymazávat lidi z fotografií nechával už přinejmenším Stalin a takřka všechno, co dnes umožňují nejnovější generativní nástroje umělé inteligence, zvládne trénovaný uživatel Photoshopu už desítky let. Rozdíl je hlavně v dostupnosti takových nástrojů. Přestávají být zapotřebí roky praxe s Photoshopem, stačí mobilní aplikace poháněná strojovým učením.

Mgr. Jakub Sedláček, Ph.D.

Je doktorem sociologie, magistrem nových médií a bakalářem translatologie. Působí na FF Univerzity Karlovy a zároveň i v Národním institutu SYRI. Zabývá se big social daty, digitální stopou, influencery a celebritami. Poslední roky tráví nejvíc času s generativní umělou inteligencí a tím, jak mění kreativní profese a celý svět.

Universitas: Mgr. Jakub Sedláček, Ph.D.

Jak se to dá regulovat?

Regulovat obsah vytvářený AI se obecně prakticky nedá. Můžeme lokálně regulovat služby, které takovou možnost nabízejí, například zakazovat konkrétní aplikace v Evropské unii. Velká část z nich ale stejně staví na nástrojích, které vznikly v rámci výzkumných projektů a autoři je buď sdíleli se světem přímo, nebo přinejmenším publikovali postupy, které může komunita replikovat. Například provést trénink neuronové sítě ve vlastní režii a následně ji sdílet se světem. Velice přesvědčivou fotku si tak dnes můžete s trochou digitální gramotnosti vygenerovat doma na výkonnějším počítači s pomocí nástrojů, které jsou k dispozici zdarma. Tuhle pandořinu skříňku už nelze zavřít.

Na co si dát pozor, abychom nenaletěli?

Pokud jde o fake news a dezinformace, ještě zásadnější roli než kdy dřív dostávají důvěryhodné informační zdroje. Jestli jsou fotka, audionahrávka nebo videozáznam skutečné, nemá už laik, a mnohdy dokonce ani profesionál moc šanci poznat. Otázka tedy především zní, jestli věříme zdroji, ze kterého se k nám obsah dostal. A pokud je tím zdrojem mail od souseda začínající „fwd: fwd: fwd:“, preventivně mu nevěřme rovnou, protože soused na tom lépe nebude. Trénovaný člověk dnes ještě obvykle může poznat třeba takzvaný deepfake, tedy výměnu obličeje ve videu, ale především v situaci, kdy bude nějaký podvod očekávat, a bude tedy na pozoru. Při běžné rychlokonzumaci obsahu na sociálních sítích spíše nikoli.

Kam až se to může vyvinout?

...

Universitas
 

Mohlo by Vás zajímat

Řešení falešně pozitivních detekcí ropných uhlovodíků pocházejících z přírodních organických látek

Instrumentace
GC
Výrobce
---
Zaměření
Životní prostředí

Enhancing Water Analysis: A Twin Line GC-MS/MS Approach to Pesticides and Nitrosamines Analysis

Instrumentace
GC/MSD, GC/MS/MS, GC/QQQ
Výrobce
Shimadzu
Zaměření
Životní prostředí

Determination of 18 nitrosamine impurities in sartan drug products using gas chromatography coupled with high-resolution Orbitrap mass spectrometry (GC-HRMS)

Instrumentace
GC/MSD, GC/MS/MS, GC/HRMS, GC/Orbitrap
Výrobce
Thermo Fischer Scientific
Zaměření
Farmaceutická analýza

Automated Sample Preparation Using the PAL3 RTC System for EPA 8270E Semivolatile Organic Analysis by GC/TQ

Instrumentace
GC/MSD, GC/MS/MS, Příprava vzorků, GC/QQQ
Výrobce
Agilent Technologies
Zaměření
Životní prostředí

Raw Material Identification of mRNA Lipid Nanoparticle Components with the Agilent Vaya Raman Spectrometer

Instrumentace
RAMAN Spektrometrie
Výrobce
Agilent Technologies
Zaměření
Farmaceutická analýza
 

Podobné články


Článek | Různé

Má generativní AI a ChatGPT ve vědě své místo?

Jak mohou umělou inteligenci využít vědci? A jak je to s etikou jejího použití například při tvorbě vědeckých článků?

Článek | Různé

Ohrozí rozhodnutí EU o umělé inteligenci evropské startupy?

Jak nová pravidla pro umělou inteligenci ovlivní startupy a inovativní firmy, které vyvíjejí projekty v těchto oblastech?

Článek | Různé

Dokáže umělá inteligence napsat vědecký článek?

Jsou úvahy, v nichž AI figuruje coby autonomní tvůrce s přesahem ve výzkumu a inovacích, možné a pravdivé?

Článek | Video

Umělá inteligence může odborným nakladatelstvím pomoci. Musíme ale tlačit na její otevřenost a kvalitu

V zájmu vědecké komunity i veřejnosti je, aby velké jazykové modely jako GPT fungovaly transparentně a spolehlivě.
 

Podobné články


Článek | Různé

Má generativní AI a ChatGPT ve vědě své místo?

Jak mohou umělou inteligenci využít vědci? A jak je to s etikou jejího použití například při tvorbě vědeckých článků?

Článek | Různé

Ohrozí rozhodnutí EU o umělé inteligenci evropské startupy?

Jak nová pravidla pro umělou inteligenci ovlivní startupy a inovativní firmy, které vyvíjejí projekty v těchto oblastech?

Článek | Různé

Dokáže umělá inteligence napsat vědecký článek?

Jsou úvahy, v nichž AI figuruje coby autonomní tvůrce s přesahem ve výzkumu a inovacích, možné a pravdivé?

Článek | Video

Umělá inteligence může odborným nakladatelstvím pomoci. Musíme ale tlačit na její otevřenost a kvalitu

V zájmu vědecké komunity i veřejnosti je, aby velké jazykové modely jako GPT fungovaly transparentně a spolehlivě.
 

Podobné články


Článek | Různé

Má generativní AI a ChatGPT ve vědě své místo?

Jak mohou umělou inteligenci využít vědci? A jak je to s etikou jejího použití například při tvorbě vědeckých článků?

Článek | Různé

Ohrozí rozhodnutí EU o umělé inteligenci evropské startupy?

Jak nová pravidla pro umělou inteligenci ovlivní startupy a inovativní firmy, které vyvíjejí projekty v těchto oblastech?

Článek | Různé

Dokáže umělá inteligence napsat vědecký článek?

Jsou úvahy, v nichž AI figuruje coby autonomní tvůrce s přesahem ve výzkumu a inovacích, možné a pravdivé?

Článek | Video

Umělá inteligence může odborným nakladatelstvím pomoci. Musíme ale tlačit na její otevřenost a kvalitu

V zájmu vědecké komunity i veřejnosti je, aby velké jazykové modely jako GPT fungovaly transparentně a spolehlivě.
 

Podobné články


Článek | Různé

Má generativní AI a ChatGPT ve vědě své místo?

Jak mohou umělou inteligenci využít vědci? A jak je to s etikou jejího použití například při tvorbě vědeckých článků?

Článek | Různé

Ohrozí rozhodnutí EU o umělé inteligenci evropské startupy?

Jak nová pravidla pro umělou inteligenci ovlivní startupy a inovativní firmy, které vyvíjejí projekty v těchto oblastech?

Článek | Různé

Dokáže umělá inteligence napsat vědecký článek?

Jsou úvahy, v nichž AI figuruje coby autonomní tvůrce s přesahem ve výzkumu a inovacích, možné a pravdivé?

Článek | Video

Umělá inteligence může odborným nakladatelstvím pomoci. Musíme ale tlačit na její otevřenost a kvalitu

V zájmu vědecké komunity i veřejnosti je, aby velké jazykové modely jako GPT fungovaly transparentně a spolehlivě.