Все повече българи се доверяват на ChatGPT за здравни съвети
Все повече хора у нас се обръщат към изкуствен интелект като ChatGPT за съвети, свързани със здравето си – от проверка на лекарства до опити за самостоятелно поставяне на диагноза.
Тази тенденция, макар и показателна за доверието в новите технологии, крие сериозни рискове, предупреждават експертите.
В ефира на NOVA NEWS, Любомир Тулев – експерт по киберсигурност, коментира, че подобна практика може да бъде опасна:
"Лекуването с ChatGPT, без да обидя никого, е сякаш да гледаш коментари във форума БГ-мама и да се лекуваш. Горе-долу е идентично", заяви той.
По думите му изкуственият интелект не е медицински специалист и не извършва реален анализ на здравословното състояние на конкретен човек, а просто генерира информация от интернет въз основа на зададения въпрос.
Регулациите закъсняват – България изостава с прилагането на европейския закон за AI
Проблемът с дезинформацията и злонамереното използване на изкуствен интелект, включително чрез т.нар. "дийп фейк" видеа, е сред основните причини за приемането на европейския закон за изкуствения интелект (EU AI Act).
Той е в сила от 1 август 2024 г. за всички държави членки на ЕС, но все още не е транспониран в българското законодателство.
"Този закон разделя употребата на изкуствен интелект в четири категории", обясни Тулев.
Четирите категории на риска при използването на изкуствен интелект
• Недопустим риск – напълно забранени приложения, като системи за социално изключване или технологии, които манипулират поведението на хората.
Примерът, даден от Тулев: "Представете си плюшено мече с изкуствен интелект, което може да влияе на детето по начин, различен от възпитанието на родителя."
• Високорискова употреба – включва сектори като медицината, при които се изисква строг контрол и задълбочен анализ на риска.
• Приемлив риск – включва съдържание като "дийп фейк" видеа, които според закона трябва задължително да бъдат обозначени с воден знак, за да е ясно, че са генерирани чрез AI.
• Приемливи приложения – области, в които AI може да се използва свободно, без допълнителни ограничения.
България закъснява с въвеждането на контролните органи
До 1 август 2025 г. България е трябвало да посочи три компетентни органа, които да следят за прилагането на регулациите, но до момента това не е напълно изпълнено.
Според експерта се обсъжда Министерството на иновациите и растежа да поеме част от функциите по надзора.
"Вече сме в забава. Ако не наваксаме, страната ни може да подлежи на санкции", предупреди Любомир Тулев.
Пълното прилагане на закона в държавите членки трябва да стане факт до 1 август 2026 г., когато контролът върху използването на изкуствения интелект ще бъде задължителен в целия Европейски съюз.
Тази тенденция, макар и показателна за доверието в новите технологии, крие сериозни рискове, предупреждават експертите.
В ефира на NOVA NEWS, Любомир Тулев – експерт по киберсигурност, коментира, че подобна практика може да бъде опасна:
"Лекуването с ChatGPT, без да обидя никого, е сякаш да гледаш коментари във форума БГ-мама и да се лекуваш. Горе-долу е идентично", заяви той.
По думите му изкуственият интелект не е медицински специалист и не извършва реален анализ на здравословното състояние на конкретен човек, а просто генерира информация от интернет въз основа на зададения въпрос.
Регулациите закъсняват – България изостава с прилагането на европейския закон за AI
Проблемът с дезинформацията и злонамереното използване на изкуствен интелект, включително чрез т.нар. "дийп фейк" видеа, е сред основните причини за приемането на европейския закон за изкуствения интелект (EU AI Act).
Той е в сила от 1 август 2024 г. за всички държави членки на ЕС, но все още не е транспониран в българското законодателство.
"Този закон разделя употребата на изкуствен интелект в четири категории", обясни Тулев.
Четирите категории на риска при използването на изкуствен интелект
• Недопустим риск – напълно забранени приложения, като системи за социално изключване или технологии, които манипулират поведението на хората.
Примерът, даден от Тулев: "Представете си плюшено мече с изкуствен интелект, което може да влияе на детето по начин, различен от възпитанието на родителя."
• Високорискова употреба – включва сектори като медицината, при които се изисква строг контрол и задълбочен анализ на риска.
• Приемлив риск – включва съдържание като "дийп фейк" видеа, които според закона трябва задължително да бъдат обозначени с воден знак, за да е ясно, че са генерирани чрез AI.
• Приемливи приложения – области, в които AI може да се използва свободно, без допълнителни ограничения.
България закъснява с въвеждането на контролните органи
До 1 август 2025 г. България е трябвало да посочи три компетентни органа, които да следят за прилагането на регулациите, но до момента това не е напълно изпълнено.
Според експерта се обсъжда Министерството на иновациите и растежа да поеме част от функциите по надзора.
"Вече сме в забава. Ако не наваксаме, страната ни може да подлежи на санкции", предупреди Любомир Тулев.
Пълното прилагане на закона в държавите членки трябва да стане факт до 1 август 2026 г., когато контролът върху използването на изкуствения интелект ще бъде задължителен в целия Европейски съюз.