Ukoliko vam je potrebna medicinska pomoć, traženje saveta od AI chatbota nije najbolji način. Ako vam treba ubeđivanje zašto je to loša ideja, nedavna studija o medicinskim sposobnostima Copilot-a pokazala je da je prilično manjkava. Zapravo, skoro četvrtina odgovora koje je dao mogla bi vas dovesti u mnogo gore stanje, pre nego što ste uzeli bilo koji lek.
Copilot ne daje dobre medicinske savete
U radu objavljenom na Scimex-u pod nazivom „Nemojte još zameniti svog lekara za dr Chatbota“, istraživači su postavili 10 često postavljenih pitanja o svakom od 50 najčešće propisanih lekova u Americi, generišući ukupno 500 odgovora. Zatim su istraživači pregledali odgovore i ocenili koliko su medicinski tačni. AI je dobio prosečnu ocenu tačnosti od 77%, sa najgorim primerom koji je bio samo 23% tačan.
Dakle, koliko je Copilot bio precizan u davanju saveta o lekovima? Rezultati su prilično zastrašujući:
„Samo 54% odgovora se slaže sa naučnim konsenzusom, kažu stručnjaci. Kada je reč o potencijalnoj šteti pacijentima, 42% AI odgovora smatrano je da bi dovelo do umerene ili blage štete, a 22% do smrti ili ozbiljnijih povreda. Samo oko trećina (36%) odgovora je smatrana bezopasnim, kažu autori.“ Stoga, ako vam je potreban medicinski savet, oslanjanje na AI chatbota može više da šteti, nego da pomogne.
Dakle zaključak je jasan – ne igrajte se svojim zdravljem. Najbolje je da se obratite stručnjaku i dobijete njegovo mišljenje. U međuvremenu, proverite sve nove funkcije koje Copilot može da uradi, a složene stvari prepustite ljudima sa adekvatnim obrazovanjem i obukom, prenosi XDA.
Nema komentara 😞
Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!
Pridruži se diskusiji