Data dodania: 2025-10-01
Niewolnicy algorytmów, czyli etyka w erze AI
W rozmowie z prof. dr. hab. Włodzisławem Duchem spoglądamy na etykę w kontekście sztucznej inteligencji. Wywiad kieruje się w stronę zachwytu nad ludzkim mózgiem i jego przyszłością w erze technologii. W rozmowie wybrzmiewają kwestie zagrożeń związanych z uzależnieniem od technologii i algorytmów.
Prof. Włodzisław Duch uzmysławia, jak technologia wpływa na naszą zdolność do cieszenia się światem oraz jak ważna jest interdyscyplinarność w rozwoju AI. Naukowiec zwraca uwagę na ewolucję systemów AI oraz ich potencjalne zastosowania w zarządzaniu i optymalizacji procesów.
Pod koniec wywiadu profesor zdradza, jakie pytania chciałby zadać sztucznej inteligencji, i wskazuje na ogromną potrzebę poszukiwania dobrych pytań oraz tworzenia pomostów między różnymi poglądami.
Katarzyna Michałowska: W ostatnich latach poczyniono znaczący postęp w możliwościach AI, szczególnie po ostatnich osiągnięciach w modelach językowych i rozwiązywaniu problemów matematycznych. Rozwój AI jest tak szybki, że każdego dnia pojawia się jakaś nowinka lub nowe urządzenie, które stosuje sztuczną inteligencję. Czy nie wydaje się to przerażające?
Włodzisław Duch: Sztuczna inteligencja nadchodzi z wielkim pędem. Może pani pamięta, jak w zeszłym roku pisano, że już wyczerpały się wszystkie dane, a po wakacjach ujrzeliśmy niebotyczny skok, jeśli chodzi o możliwości rozwiązywania problemów matematycznych i teoretycznych zagadnień.
Cisco opublikowało raport, że obecnym trendem jest decentralizacja wielkich modeli. W związku z tym pojawia się ogromna szansa na rozbicie monopolu dużych firm. Widać wyraźnie, że rozwój AI zaczyna się demokratyzować.
Oczywiście OpenAI usiłuje podbić oczekiwania, mówiąc, że nadchodzi GPT-5 i wszyscy na to czekają. Ale równocześnie zadajemy sobie pytanie, czego możemy się spodziewać po GPT-5? Czy chodzi o możliwości skojarzeniowe modelu, czyli to, że będzie nam pomagał pisać, może trochę lepiej, ale być może wcale nie?
Im większy model, tym więcej możliwości, żeby konfabulować i źle kojarzyć. Im precyzyjniejszy i mniejszy, tym większa szansa, że nie będzie pisał absurdów.
Przeraża mnie ludzkie oczekiwanie, że systemy będą wszechpotężne. Czyli będą niemalże jak Zeus gromowładny, który może zatrzymać trzęsienie ziemi. Owszem, system może się przydać do przewidywania katastrof, jeśli zbierze dostatecznie dużo danych, ale trzęsienia ziemi nie zatrzyma swą niewidzialną ręką.
Mnie przeraża ludzkie podejście, bo widać, że ludzie chcą zwolnić się z myślenia i podejmowania pewnych decyzji, które i tak muszą sami podjąć.

A może ludzie po prostu boją się tej tajemniczej AI?
Właśnie to powtarzam, że ludzie boją się sztucznej inteligencji. A przecież to nie jest diabeł, który wyskoczy z pudełka. To jest kwestia tego, jak jej używamy.
Faktem jest, że w skali społecznej można mnóstwo ludzi ogłupić. Ludzie nie sprawdzają informacji, a przecież są narzędzia, które pomagają weryfikować fakty. Jest obawa, że za AI stoją jakieś ciemne siły polityczne. No dobrze, ale przecież to wiemy i mamy mnóstwo sposobów oceny takich systemów, czy one rzeczywiście nie uprawiają jakiejś propagandy, a może się tylko mylą? Przecież każda sieć neuronowa ma podobne właściwości.
Człowiek również się myli, nieprawdaż?
Tak! Robię różne porównania tego, jak działają nasze mózgi, i wyraźnie widać, że sztuczna inteligencja to jest sieć neuronowa, czyli coś, co kojarzy i co nie za dobrze pamięta. Mózg ludzki też dokonuje kompresji. Przykładowo, tworząc duże modele językowe, bierzemy 10 tysięcy gigabajtów tekstów lub obrazów, po czym produkujemy z tego powiedzmy 150 razy mniej parametrów.
Jeśli mnie ktoś zapyta o rzeczy, które każdy maturzysta powinien wiedzieć, to ja już zdążyłem je dawno zapomnieć. Czyli muszę zajrzeć do źródeł, sprawdzić w tych źródłach i dopiero wtedy mogę prawidłowo odpowiedzieć. Zresztą, gdy cokolwiek piszę, to bez przerwy weryfikuję, sprawdzam, szukam, czy rzeczywiście to dobrze pamiętam. Czy czegoś nie pokręciłem, bo jest duża szansa, że nasze sieci neuronowe coś pokręcą.
Duże modele językowe czy multimodalne robią to samo. Natomiast znaczna liczba ludzi nadal wyobraża sobie, że to jest program, który po prostu cytuje, bo sobie coś przypomniał i połączył. To tak nie działa!
To działa jak normalna sieć neuronowa, czyli reaktywnie. Jeśli teraz rozmawiamy, pani mnie o coś zapyta, to mi coś przyjdzie do głowy, co być może nigdy w życiu by mi do głowy nie przyszło. Czyli jest to system otwarty, który reaguje na świat zewnętrzny.
My to nazywamy systemem typu przepływ danych (data flow), ale to nie działa jak program, bo tego nie da się zaprogramować.
Owszem, ludzie próbowali stworzyć systemy zaprogramowane w oparciu o ludzką, zwerbalizowaną wiedzę. Próbowano ją szczegółowo opisać i nie dało się za pomocą programowania uchwycić wszystkich niuansów języka i rozumienia pojęć. Nie udało się za pomocą oprogramowania stworzyć nic takiego jak generatywna sztuczna inteligencja, która potrafi wytworzyć na przykład fantastyczne obrazki.
A propos obrazków, czy nie mamy kolizji prawnej związanej z korzystaniem ze sztucznej inteligencji? Po której stronie są prawa autorskie, czy po stronie twórcy AI, czy po stronie korzystającego z AI?
To jest puszka Pandory i jeden z tematów, który ogranicza rozwój sztucznej inteligencji: różnego rodzaju regulacje prawne. Amerykanie opracowali przepisy mówiące, że nie można przypisać copyrightu rzeczom, które zrobiła sama sztuczna inteligencja. I to jest prawda, ale dodali do tego, że jeśli człowiek ma istotny wkład, to już można.
Co to znaczy istotny wkład? To znaczy, że trzeba własnoręcznie pomalować? Niekoniecznie! Każdy z obrazów, które daje się wytworzyć za pomocą AI, będących na przykład w czyjejś galerii na sprzedaż, wymaga dużo pracy.
Jak nas uczono na ekonomii, wartość czegoś to jest zamrożona praca. To kwestia, ile pracy trzeba włożyć, żeby system wyprodukował coś, co jest zgodne z wizją artysty.
Na przykład Jackson Pollock jeździł rowerem i pryskał wkoło farbą. Czy w związku z tym rower jest narzędziem, które to robi? Nie, artysta miał taką wizję. Ludzie, którzy używają różnych narzędzi, próbują robić coś intencjonalnie. Jeżeli intencje są czynnikiem determinującym dzieło, to można uznać, że jest to wartość i określony wysiłek lub praca artysty. W związku z tym uważam, że to jest twórczość artystyczna.
Tworzenie dzieła artystycznego i kreatywność człowieka jest zachwycająca. Czy Pan Profesor zachwyca się ludzkim mózgiem?
Ludzki mózg jest najbardziej złożoną strukturą, jaką znamy we wszechświecie.
Nasze zdolności percepcyjne są zdumiewające. Na przykład skrzypek musi nacisnąć struny tam, gdzie trzeba, bo przesunięcie palców o milimetr powoduje rozstrojenie dźwięku. Wrażliwość naszych zmysłów jest niesłychana. Ewolucja dopracowała nasz aparat przetwarzania informacji ze zmysłów.
Nasze mózgi są najbardziej interesującym obiektem, jaki znamy, który być może w naszym, obserwowanym wszechświecie jest unikalny.
A dzisiaj mamy następny stopień ewolucji, w którym budujemy supermózgi, które być może spowodują, że ludzki mózg zacznie znikać. Czy tak może być, Panie Profesorze?
Mam nadzieję, że on nie zacznie znikać. Natomiast w znacznej mierze, jak popatrzeć na zmiany społeczne, może ulec pewnej degradacji, atrofii, jak to się określa. Wszystko dlatego, że w coraz większym stopniu zaczynamy polegać na technologii, a to oznacza, że ludzie na przykład nie umieją czytać mapy, tylko słuchają poleceń swojego telefonu.
Wkrótce wszystkie systemy doradzające nam, jak żyć, zaczną rzeczywiście nami sterować i staniemy się, jak już parę książek na ten temat napisano, niewolnikami algorytmów.
Nie jest dobrze, że znaczna część ludzkości wyzbyła się zdolności intencjonalnego życia lub kierowania swoim życiem.
To duże niebezpieczeństwo, które technologia ze sobą przynosi. I z jednej strony możemy sobie wyobrazić technologię, która pomaga nam osiągnąć pewną mądrość życiową. Na przykład zrozumienie, że cele doraźne są mniej istotne niż długofalowe. Trzeba myśleć o tym, kim chcę się stać w przyszłości, co chcę osiągnąć, a nie tylko, że teraz będę miał jakąś przyjemność z towarzystwa, z używek czy gier komputerowych.
Dobrze by było, gdyby te systemy były w stanie nam doradzać w sposób mądry. Ale pozostaje pytanie, kto takie systemy może stworzyć? Wydaje się, że Big Tech raczej nie jest tym zainteresowany, bo wiemy, że on chce nas przywiązać do swoich platform, byśmy oglądali te głupoty. Przestajemy kontrolować siebie i swoje potrzeby, a dajemy się wciągnąć.
Ludzie w tej chwili, zamiast nauczyć się cieszyć światem, po prostu wchodzą w sieci społecznościowe i nie widzą świata poza nimi. Nie widzą, bo trzymają nos w telefonie i nie mają już przyjemności z życia. Mają tylko przyjemność z powierzchownych interakcji.
To niestety jest coś, co technologia za sobą niesie i na co ma wielki wpływ. Widzimy, jak nasi studenci w coraz mniejszym stopniu zdolni są do skupienia się na czymkolwiek. Owszem, jest kilku pasjonatów i to jest świetnie, gdy są tacy, którzy próbują włączyć się w większy projekt i wkładają w niego dużo wysiłku.
Panie Profesorze, patrzę przez pryzmat Politechniki Gdańskiej i mamy tu wielu najwyższej klasy specjalistów, którzy trenowali sztuczną inteligencję. Czy praca nad rozbudowaniem AI powinna się odbywać w trybie interdyscyplinarnym przy współpracy inżynierów, etyków, a może nawet filozofów?
Wydaje mi się, że to jest rzecz absolutnie konieczna, ponieważ w tej chwili jest kilka naprawdę bardzo silnych grup.
DeepSeek pokazała, że można nie mieć dostępu do nieograniczonych obliczeniowych zasobów i można zrobić coś lepiej, na znacznie słabszych systemach. Ale część dotycząca rozwoju technologii jest realizowana tylko przez niewielką grupę ludzi na świecie.
Natomiast możliwości wszelkiego rodzaju zastosowań systemów do konkretnych warunków są szerokie i nie będą zdominowane przez bardzo duże firmy, które do tej pory zrobiły wielki postęp i doprowadziły do powstania dużych systemów.
Co więcej, wydaje mi się, że początkowe inspiracje do rozwoju sztucznej inteligencji były dosyć naiwne. Bazowały na tym, że mamy wiedzę, a tę wiedzę wyciągniemy od ekspertów i zapiszemy ją w postaci reguł. Zrobimy systemy ekspertowe, które będą doradzać w wielu dziedzinach. Istnieje całkiem duża gałąź zastosowań tego typu systemów, głównie w Ameryce.
Jednakże okazało się, że wielu rzeczy nie da się tak zrobić, a w szczególności analizy obrazów, analizy sygnałów czy systemów dialogu. Okazało się natomiast, że tworząc coraz większe sieci neuronowe, doszliśmy do momentu, kiedy naprawdę złożone sieci z odpowiednimi algorytmami były w stanie realizować zadania tego rodzaju.
I w tym momencie sieci były głównie inspirowane przez prosty pomysł. Mamy dużo elementów, które ze sobą współpracują, czyli neuronów lub grup neuronów, jak w mózgu.
Pamięć skojarzeniowa powstaje dlatego, że systemy uczą się pewnych wzorców i wzorce są ze sobą skojarzone. I teraz, jeżeli mamy dostatecznie dużą sieć i dostatecznie dużo rzeczy w niej zinternalizujemy, czyli na przykład zapiszemy całą wiedzę ludzkości, którą się daje wyciągnąć z obrazów i tekstów, wówczas mamy szansę, żeby połączyć pewne obserwacje, które są od siebie odległe, bo zrobione w różnych dziedzinach.
Człowiek czegoś nie zauważy, bo jest milion książek do przeczytania. Żeby coś rzeczywiście odkrywczego dostrzec, trzeba się wyspecjalizować w jakiejś dziedzinie, a wtedy już najczęściej wpadamy w pewne kanały myślenia. A systemy AI mają dużo większe możliwości kojarzenia różnych rzeczy ze sobą.
W związku z tym zaczynamy patrzeć na rzeczy, które pozwalają łączyć interdyscyplinarnie różne dziedziny i dyscypliny.
Niedawno myślano, że są to tylko systemy skojarzeniowe typu Chat GPT, który pojawił się dwa lata temu. Nagle robimy następny krok, który nastąpił w połowie ubiegłego roku. Bo jesteśmy w stanie wykorzystać stare techniki, pozwalające rozważyć dużo innych możliwości niż tylko proste skojarzenia.
Przechodzimy do grafów, czyli bardziej złożonych ścieżek rozumowania. I to są już inspiracje kognitywne, na poziomie myślenia lub poznania. Wymagają popatrzenia przez pryzmat na przykład psychologii, na to, jak ludzie rozumują. Czy z punktu widzenia tworzenia takich systemów udaje się w tej chwili wyjść poza proste inspiracje biologiczne?
Przyszłość leży we wdrażaniu tego typu rozwiązań po to, by pomogły nam w optymalizacji procesów na różnych poziomach, np. zarządzania na poziomie miast czy inteligentnych systemów zarządzania w różnych firmach. Żeby to zrobić, musimy zebrać dane, tak by nasza firma działała zwinniej. Możemy wykonać cyfrowy model firmy (cyfrowy bliźniak) lub pewnych obszarów w tej firmie. Następnie moglibyśmy, przynajmniej częściowo, zastąpić wiele procesów w firmie przez agentów opartych na sztucznej inteligencji.
Z tego robi się bardzo interdyscyplinarny projekt. Każda firma ma swoją specyfikę, trzeba umieć rozmawiać z ludźmi. W firmach farmaceutycznych używa się specyficznego języka, z kolei w zarządzaniu miastem trzeba znać liczne przepisy. To wszystko wymaga współpracy – na przykład z prawnikami, z osobami, które zarządzają dużymi pieniędzmi, urzędami itp. Trzeba się przebić przez mnóstwo różnych przepisów, żeby zobaczyć, co wolno, a czego nie wolno.
Nasze szanse są w tym, żeby próbować zmienić kulturę organizacyjną różnych firm.
By to się stało, musimy zmienić prawo, systemy regulacji i systemy zarządzania, które mamy.
Tak, Unia ostatnio dostrzegła, że może regulacje są zbyt silne, i stara się troszkę je osłabić. Uważam, że przede wszystkim powinniśmy stawiać na elastyczność i możliwości wdrożenia. W dużym stopniu zależy to od dziedziny czy obszarów, w których dana firma pracuje. To wymaga pewnej interdyscyplinarnej wiedzy: może znajomości ekonomii, chemii czy kwestii inżynierskich, technicznych, byśmy byli w stanie to zrealizować.
Czy jeśli my, jako studenci lub nauczyciele, korzystamy z AI, to jest to podobne do wygenerowania rysunków w AutoCadzie, czy jest to coś więcej? Czy wchodzimy w jakąś szarą strefę?
Szara strefa jest tam, gdzie trudno jest ocenić, ile jest pracy człowieka, a ile inwencji samej maszyny. I problem w tym, że inwencja maszyny zaczyna bardzo mocno przekraczać naszą własną inwencję.
Powoli coraz trudniej będzie nam sprostać temu, co robi taki inteligentny system. Do tej pory ludzie używali go po to, żeby wspomóc swoją wyobraźnię, by nie przeoczyć czegoś lub zwrócić uwagę na rzeczy, które powinny być w publikacji.
W ostatnich dniach pojawiła się Deep Research firmy Perplexity, wyszukiwarka zaprojektowana specjalnie do odkryć naukowych. Widziałem użycie Deep Research w pisaniu publikacji naukowej i tekst napisany przez nią był na wysokim poziomie.
To będzie się zdarzać coraz częściej. Nie wiem, co się stanie w związku z tym z naszymi publikacjami. Może się okazać, że w coraz mniejszym stopniu jesteśmy twórcami, a w coraz większym stopniu będziemy polegać na tym, co maszyna sama wymyśli, i na to nie mamy jakiegoś mądrego rozwiązania.
Ale równocześnie to jest przyszłość. Każdy z nas będzie miał osobistego asystenta na parę miliardów parametrów, który będzie wiedział wszystko, co nam potrzebne. Będziemy go mieli w telefonie, komputerze lub tablecie.
To chyba jest przewrót kopernikański. Ale przywołując Kopernika w kontekście sztucznej inteligencji, czy teoria Kopernika, że „zły pieniądz wypiera dobry pieniądz” nie odnosi się do AI, która kiedyś trenowana na książkach pisanych przez ludzi, teraz uczy się sama na książkach napisanych przez samą siebie?
Ciekawy pomysł, tak. Ludzie rzucają się na tę technologię, zanim ona dojrzeje.
Dużo firm zaczęło ją stosować, część się rozczarowała i to jest niebezpieczeństwo we wdrażaniu różnego rodzaju modeli w rzeczywistych zastosowaniach, w określonych instytucjach. Ludzie się rozczarowują, dlatego że użyli technologii, która jeszcze nie była do tego gotowa, ale ona po paru miesiącach staje się dużo lepsza.
Teraz widzimy kolejne zjawisko, które mówi, że jak mamy duży model, który już dużo wie, to możemy z niego wydestylować wiedzę przydatną w różnych specjalistycznych obszarach, a nawet dość szeroko przydatną. W DeepSeek czy Deep Research te modele są rozwinięte i są w stanie rozwiązać niesłychanie trudne zagadnienia.
Nasza wiedza dzięki temu rośnie, ponieważ mamy w tej chwili różnego rodzaju nowe modele złożonych zjawisk. W szczególności na poziomie biologii molekularnej lub genetyki, które są na tyle skomplikowane, że nie jesteśmy w stanie w pełni objąć ich ludzkim umysłem. Ponieważ jest tam zbyt wiele interakcji, różnych molekuł i procesów, musimy tworzyć takie modele.
Ale w związku z tym następuje duży postęp wiedzy. Tak, te systemy korzystają z tego, co same wyprodukowały.
W tej sytuacji istotna jest weryfikacja, czyli dobry system, który potrafi powiedzieć, czy jest lepiej czy gorzej. W przypadku gier to oczywiście wiemy: przegrał lub wygrał. W przypadku programowania: program zadziałał, robi, co trzeba, zgodnie z testami – jest dobrze. Ale w przypadku wielu innych rzeczy nie mamy złotego standardu. A przecież wiemy, że złoty standard w medycynie nie jest całkiem złoty, dlatego że diagnozy prawie nigdy nie są w stu procentach pewne.
Zdolność AI do przekroczenia ludzkich możliwości autonomicznym uczeniem się jest wówczas ograniczona. W związku z tym tylko dzięki współpracy możemy zajść dużo dalej. Więc ja sobie wyobrażam, że bez udziału człowieka zawsze będzie dużo kiepskich książek.
We wszystkich dziedzinach, a w szczególności dotyczących medycyny, maszyny zaczynają nas wyprzedzać. To jest bardzo dobre pytanie: jak powinniśmy do tego podchodzić? Czy powinniśmy patrzeć, jak daleko jeszcze możemy zajść dzięki temu, że mamy takie systemy? Na pewno to pozwoli na szybki rozwój firmom, które nauczą się wykorzystywać taką technologię.
Wychodzący z Politechniki Gdańskiej inżynier musi sztuczną inteligencję modelować, trenować i musi to robić z rozmysłem. A my, jako uczelnia wyższa, musimy przygotować studentów od strony etyki. Jak do tego podejść mądrze?
Zależy od dziedziny, w której się pracuje. Jeżeli człowiek siedzi w biologii molekularnej i próbuje znaleźć nowy enzym, który rzeczywiście coś naprawia, to jest to specjalistyczna wiedza, prawda?
Już od dawna powtarzałem, że regulacja jest bardzo prosta: po prostu nie regulujemy algorytmów, nie regulujemy matematyki, bo tego się nie da regulować i to nie ma sensu.
Regulujemy wszystko, co wypuszczamy jako produkt na rynek. Co może mieć jakieś efekty i wpływ na ludzi. Podobnie jak reguluje się bezpieczeństwo samochodów, w różny sposób robiąc testy. Należy regulować bezpieczeństwo systemów administracyjnych, które mogą ludziom zaszkodzić. Jeśli będziemy pilnować kluczowych regulacji i testów, bez wypuszczania na rynek w pośpiechu, bo ktoś naciska, będzie to dobre.
Ludzie bardzo łatwo będą przyzwyczajać się do tego, że system ma rację. Ponieważ zwykle ma rację. Ale nie można pozwolić na to, żebyśmy bezmyślnie zaczęli przyjmować decyzje takich systemów.
Jednocześnie wielu ludzi nie chce dopuścić do siebie myśli, że w zasadzie nie ma żadnego prawa przyrody, które by zabraniało maszynom osiągnąć dużo wyższą inteligencję niż nasza. Nie ma żadnego prawa przyrody, które ogranicza zdolności maszyny do osiągnięcia superinteligencji. Dlatego jestem przekonany, że superinteligencja nadchodzi i to bardzo szybko, a my musimy się do tego przystosować.
Panie Profesorze, a jakie Pan chciałby zadać pytania sztucznej inteligencji, na jakie pytania chciałby Pan otrzymać odpowiedzi?
Jest mnóstwo dobrych pytań, o których chciałbym porozmawiać. Cały czas rozmawiam z AI, próbuję coś wyciągnąć. Jestem w radzie Instytutu Wspomagania Rozwoju Dziecka i oczywiście chcielibyśmy zrozumieć, czy jest jakieś lepsze podejście terapeutyczne do autyzmu. Jest książka zawierająca dwadzieścia różnych teorii autyzmu, moja jest dwudziesta pierwsza. Chciałbym się dowiedzieć, która z nich jest najbardziej prawdopodobna. Może po części wszystkie? Ale szukam wsparcia i kontrargumentów do różnych teorii, a w szczególności do tej mojej.
Jeśli ktoś nad czymś rzeczywiście pracuje i widzi, że są jeszcze dziury, a okazuje się, że można wykryć dziury w naszej wiedzy, używając sieci semantycznych, gdzie są węzły łączące różne pojęcia, to w tych grafach wiedzy można szukać obszarów, w których warto zadawać istotne pytania, żeby zrobić pomosty. To jest kolejna rzecz, którą warto rozwijać. Tworzyć modele do tworzenia pomostów.
Razem z dr. hab. inż. Julianem Szymańskim, moim dawnym doktorantem, a teraz profesorem na Politechnice Gdańskiej, pracujemy nad systemem, który tworzy siatkę pojęciową pokazującą różnice w poglądach ludzi. Na przykład jak liberałowie i konserwatyści różnią się pod względem systemów wartości. To widać w siatkach pojęciowych. I wtedy można zobaczyć, czy są szanse na tworzenie pomostów, żeby ludzie zaczęli się bardziej doceniać lub nauczyli się patrzeć z innej strony.
Mógłbym więcej wymieniać z tego, co próbowałem w życiu zrobić, co wydawało mi się zupełnie nierealne, bo mam coraz mniej czasu na to, żeby pewne rzeczy dokończyć. Jednakże dzięki narzędziom AI jest szansa, że da się coś ważnego zrobić, bo wiem, o co pytać. Tak, rzeczywiście szukanie dobrych pytań jest w tej chwili najważniejsze.
W takim razie, kończąc naszą rozmowę, razem zachęcamy do zadawania właściwych pytań. Bardzo dziękuję, Panie Profesorze, za pouczającą rozmowę.
Katarzyna Michałowska
prof. Włodzisław Duch – kierownik Katedry Informatyki Stosowanej na Uniwersytecie Mikołaja Kopernika w Toruniu. Ukończył studia fizyki teoretycznej (1977), obronił doktorat z chemii kwantowej (1980), uzyskał habilitację z matematyki stosowanej (1987), a po doktoracie pracował na Uniwersytecie Południowej Kalifornii w Los Angeles (1980–1982). Pracował m.in. w Instytucie Astrofizyki Maxa Plancka w Monachium, Instytucie Technologicznym Kyushu, Uniwersytetach Tokyo, Rikkyo i Meiji w Japonii, na Uniwersytecie Florydy, Uniwersytecie Alberty w Edmonton w Kanadzie. Pracował na Wydziale Inżynierii Komputerowej Uniwersytetu Technologicznego Nanyang w Singapurze jako Nanyang Visiting Professor (2010–2012). Pełnił funkcję prorektora ds. badań naukowych i informatyzacji UMK (2012–2014) oraz wiceministra w Ministerstwie Nauki i Szkolnictwa Wyższego (2014–2015). Prezes Europejskiego Towarzystwa Sieci Neuronowych (European Neural Networks Society, 2006, 2008, 2011), w 2013 roku został wybrany na Fellow of the International Neural Networks Society. Współzałożyciel i redaktor naukowy czasopism „Kognitywistyka” i „Media w Edukacji”. Jest czynnym członkiem komitetu technicznego IEEE CIS oraz ekspertem programów naukowych Unii Europejskiej. Opublikował ponad 450 artykułów naukowych i popularnonaukowych, napisał 5 książek, a 21 współredagował. Jego firma DuchSoft stworzyła oprogramowanie GhostMiner, którego sprzedażą zajmuje się firma Fujitsu.
-
2025-10-02
Inżynieria w służbie zdrowiu
-
2025-10-01
Przemysł 5.0 – inżynier w centrum rewolucji