Teknologi tidak dapat mengganti pemeriksaan yang hidup terhadap dokter

Sumber:

Sergey Tetyushkin / VK.com

Akui saja, apakah Anda pernah memeriksa gejala di chatgpt? Tetapi apakah Anda berpikir di mana dia mendapatkan jawabannya dan seberapa relevan mereka? Seperti yang dikatakan dokter, jaringan saraf tidak diharuskan untuk mematuhi kerahasiaan medis (HIPAA), tidak memiliki akses ke rekomendasi klinis terbaru, dan yang paling penting, tidak bertanggung jawab atas kesehatan Anda. Dan bagaimana dengan itu?

Kepala Dokter dari Togliatti secara populer menjelaskan mengapa chatgpt tidak boleh percaya secara membabi buta dan bagaimana menggunakannya dengan bijak. Baca kolom ahli Sergei Tetyushkin untuk portal Tolyatty.ru:

Baru -baru ini kami melakukan survei dan ternyata kebanyakan orang mempercayai pendapat jaringan saraf. Namun, perlu diperingatkan bahwa konsultasi kesehatan yang dibuat menggunakan kecerdasan buatan bisa berbahaya dan tidak boleh menggantikan rekomendasi pekerja medis berlisensi.

Konsekuensi dari ruam mengikuti tips AI bisa menjadi kehidupan yang mengancam. Setelah Chatgpt mengusulkan mengganti natrium bromida dengan seorang pria berusia 60 tahun dengan seorang pria berusia 60 tahun-sebagai hasilnya, pria itu sangat diracuni dan dirawat selama tiga minggu di klinik kejiwaan.

* Bahaya utama natrium bromida adalah perkembangan keracunan kronis, yang dikenal sebagai bromisme. Ini terjadi dengan masuk berkepanjangan atau satu dosis tinggi. Efek sampingnya adalah kebingungan, penghambatan, delirium, halusinasi dan psikosis.

Ingat:

  1. Bot obrolan dengan kecerdasan buatan tidak memiliki catatan medis Anda. Dan lebih baik, jika tidak: di mana jaminan bahwa data kesehatan pribadi Anda dilindungi dan tidak akan “melayang” di sebelah kiri?

  2. Mereka tidak memiliki catatan medis pribadi Anda dan bukan cara untuk memberikan rekomendasi yang dapat diandalkan tentang gejala baru yang ada, atau memperingatkan bahwa bantuan darurat diperlukan.

  3. Informasi yang dikeluarkan oleh AI dapat ketinggalan zaman atau tidak akurat.

AI generatif bergantung pada data tempat ia dilatih. Jauh dari kenyataan bahwa penemuan medis terbaru dan saran yang relevan “meletakkan” itu. Baru -baru ini, pusat -pusat untuk kontrol dan pencegahan penyakit mulai merekomendasikan untuk meletakkan vaksin flu baru dari orang dari 6 bulan ke atas. Dan saya tidak yakin semua bot obrolan mengetahui acara terbaru.

Masih populer bot-bot-Gemini, Microsoft Copilot dan Chatgpt-Have belajar menghasilkan makanan yang layak untuk penurunan berat badan. Tetapi mereka tidak dapat menyeimbangkan elemen makro: karbohidrat, protein, lemak dan asam lemak.

Juga berbahaya bahwa bahkan jika obrolan keduanya salah, itu masih terdengar percaya diri, meyakinkan, Anda percaya padanya.

Tetapi karena ada jaringan saraf, maka Anda perlu belajar menggunakannya. Bagaimana melakukan ini dalam kasus tentang kesehatan? Saya setuju dengan kolega yang percaya bahwa AI dapat membantu secara lebih kompeten merumuskan pertanyaan untuk dokter yang hadir dan menjelaskan istilah medis yang kompleks. Diagnosis, dan bahkan lebih dari tujuan perawatan, membuat kami dokter.

Sergey Tetyushkin

Kepala Dokter Rumah Sakit Kota No. 4 Togliatti, Ahli Bedah, Kandidat Ilmu Kedokteran

Sergei Tetyushkin secara aktif mempromosikan gaya hidup sehat dan memberikan rekomendasi tentang cara memantau kesehatan secara kompeten. Baru -baru ini dia menyarankan untuk pintar Isian Metabolisme untuk lebih aktif berpisah dengan kelebihan berat badan. Sedikit lebih awal diberi tahu Tentang “panggilan yang mengkhawatirkan” – tanda -tanda demensia.

Tautan Sumber