Phát triển AI song hành cùng chính sách an toàn thông tin

09/11/2023 03:20 PM


Theo Bộ Thông tin và Truyền thông, Trí tuệ nhân tạo (AI) đang là tác nhân chính trong công tác chuyển đổi bộ mặt của lĩnh vực công nghệ, thúc đẩy mạnh mẽ lên nền công nghiệp thế giới hiện nay. Nhưng việc phát triển quá nhanh và mạnh của AI đang để lại nhiều vấn đề cho hệ thống an toàn thông tin (ATTT) hiện nay. Một trong những vấn đề quan trọng cần thay đổi gấp rút là các quy định chính sách để phát triển nhưng phải bảo đảm ATTT trước cơn bão AI.

Ảnh minh họa

Đại dịch COVID-19 đang đánh dấu cuộc sống của chúng ta theo những cách chưa từng có. Một số tổ chức đang sử dụng AI để đánh giá và khám phá các loại thuốc hoặc phương pháp điều trị có thể giúp điều trị COVID-19 và phát triển vaccine.

AI cũng đã được sử dụng trong các ứng dụng khác ngoài y tế. AI đã hỗ trợ việc phòng chống lại thông tin sai lệch bằng cách khai thác phương tiện truyền thông xã hội, theo dõi các tin giật gân hoặc đáng báo động và xác định các tài liệu tham khảo trực tuyến đáng tin cậy.

Tuy nhiên, trong cuộc chiến chống lại COVID-19, AI cũng đã bộc lộ những hạn chế cố hữu của hệ thống. Các hệ thống hiện tại học máy bằng cách tìm các mẫu trong dữ liệu và để đạt được hiệu suất mong đợi, các hệ thống phải được đào tạo với đầu vào chất lượng cao để mô hình hóa các hành vi mong muốn, nhưng để tìm kiếm những mẫu đầu vào có số lượng và chất lượng cao như kì vọng là một điều khó khăn.

Trong ATTT mạng, AI có thể trao quyền và phá vỡ ATTT mạng do cần được cung cấp đầy đủ lượng dữ liệu cần thiết để xem xét và giải quyết các vấn đề một cách chính xác nhất, cũng vậy các rủi ro vốn dĩ phụ thuộc vào cách thức hoạt động và học hỏi của AI và thường là kết quả của sự phức tạp của công nghệ AI cơ bản.

Vì vậy, để thúc đẩy phát triển AI và sinh thái kỹ thuật số một cách thuận lợi và an toàn, chúng ta cần thúc đẩy xây dựng song hành các chiến lược phát triển AI và các chính sách an toàn thông tin AI phù hợp với các chiến lược đó.

Chiến lược, chính sách phát triển AI trên thế giới

Các nhà lãnh đạo G20 đã hoan nghênh các Nguyên tắc AI của G20 vào năm 2019 trong bối cảnh các ứng dụng mới và đang nổi lên của các hệ thống AI đang phát triển. Ví dụ, trong giao thông vận tải, các phương tiện tự hành là một lĩnh vực nghiên cứu và thử nghiệm tích cực, với các lợi ích tiềm năng về chi phí, an toàn và môi trường. Trí tuệ nhân tạo trong khoa học có tiềm năng đã được chứng minh để tăng tốc khám phá, tạo điều kiện thuận lợi cho khả năng tái sản xuất và giảm chi phí thử nghiệm.

Một ví dụ gần đây về điều này là khám phá của các nhà nghiên cứu tại MIT về một loại kháng sinh mới có thể tiêu diệt vi khuẩn kháng thuốc. Các nhà nghiên cứu đã sử dụng AI để sàng lọc (chỉ trong vòng vài giờ) một thư viện kỹ thuật số lớn gồm các hợp chất dược phẩm hiện có. AI trong lĩnh vực dịch vụ tài chính có thể phát hiện gian lận, đánh giá mức độ tín nhiệm và tự động hóa giao dịch. Tư pháp hình sự, an toàn thông tin, tiếp thị và quảng cáo, và nhiều hoạt động khác hiện sử dụng hệ thống AI.

Đồng thời, việc hoạch định chính sách AI ở các nước G20 đang trong giai đoạn thử nghiệm và đổi mới. Các quốc gia đang tích cực tìm cách xây dựng các chiến lược và chính sách quốc gia nhằm khai thác tiềm năng của AI đồng thời giảm thiểu các thách thức và tăng sự tin tưởng của dân chúng vào công nghệ này. Chỉ trong vài tháng đầu năm 2020, một số sáng kiến chính sách lớn đã được các nền kinh tế G20 đưa ra tham vấn cộng đồng, bao gồm dự thảo bản ghi nhớ của Mỹ về hướng dẫn điều chỉnh các ứng dụng AI và Sách trắng về AI của Ủy ban châu Âu.

Cả hai yếu tố trên đều ủng hộ những nỗ lực mạnh mẽ và chặt chẽ nhằm thúc đẩy việc thực hiện các Nguyên tắc AI của G20. Với phạm vi rộng lớn của các ứng dụng AI và các tác động tiềm tàng liên quan đến các nền kinh tế và xã hội, điều quan trọng là phải thúc đẩy các nỗ lực hướng tới các hệ thống AI lấy con người làm trung tâm, minh bạch, mạnh mẽ và có trách nhiệm, đồng thời xây dựng một môi trường chính sách hỗ trợ tiến bộ đó.

Đây là thời điểm thuận lợi, vì việc thử nghiệm chính sách hiện đang được tiến hành mang lại cơ hội lớn cho các phương pháp đổi mới và học hỏi đồng đẳng từ các phương pháp của các quốc gia trong G20, đồng thời có tiềm năng định hình các hướng phát triển AI toàn cầu. Do tính tập trung của dữ liệu đối với các hệ thống AI, mối quan tâm của G20 đặt trọng tâm vào các vấn đề về truy cập và chia sẻ dữ liệu, cũng như luồng dữ liệu.

Để tận dụng thời điểm này và sự hỗ trợ của các Nguyên tắc AI G20, DETF dưới thời Chủ tịch Ả Rập Saudi năm 2020 đã biên soạn các ví dụ về chính sách quốc gia để thúc đẩy các Nguyên tắc AI của G20 nhằm cung cấp cho các quốc gia các ví dụ về chiến lược và chính sách quốc gia khi họ triển khai các Nguyên tắc AI của G20 trong bối cảnh quốc gia cụ thể của họ.

Argentina, Úc, Brazil, Canada, Trung Quốc, Pháp, Đức, Indonesia, Ý, Nhật Bản, Hàn Quốc, Mexico, Liên bang Nga, Ả Rập Saudi, Thổ Nhĩ Kỳ, Vương quốc Anh, Mỹ và Ủy ban châu Âu đã gửi phản hồi và các quốc gia khách mời G20 và đại diện khu vực cũng đưa ra phản hồi, bao gồm Singapore, Tây Ban Nha, Thụy Sĩ và Các tiểu vương quốc Ả Rập Thống nhất về các chính sách của họ.

Bền vững và an toàn thông tin cho AI

a) Các hệ thống AI phải bền vững và an toàn thông tin trong toàn bộ vòng đời của chúng để trong điều kiện sử dụng bình thường, sử dụng hoặc sử dụng sai có thể dự đoán trước hoặc các điều kiện bất lợi khác, chúng hoạt động phù hợp và không gây ra rủi ro an toàn vô lý.

b) Để đạt được mục tiêu này, các tác nhân AI phải đảm bảo khả năng truy xuất nguồn gốc, bao gồm liên quan đến bộ dữ liệu, quy trình và quyết định được đưa ra trong vòng đời của hệ thống AI, để cho phép phân tích kết quả và phản hồi của hệ thống AI đối với yêu cầu, phù hợp với bối cảnh và nhất quán với trạng thái thuộc nghệ thuật.

c) Các tác nhân AI nên, dựa trên vai trò, bối cảnh và khả năng hành động của họ, áp dụng phương pháp quản lý rủi ro có hệ thống cho từng giai đoạn của vòng đời hệ thống AI trên cơ sở liên tục để giải quyết các rủi ro liên quan đến hệ thống AI, bao gồm quyền riêng tư, kỹ thuật số ATTT.

Theo đó, tính bền vững biểu thị khả năng chịu đựng hoặc vượt qua các điều kiện bất lợi, bao gồm cả rủi ro bảo mật kỹ thuật số. Nguyên tắc này nêu rõ thêm rằng các hệ thống AI không được gây ra rủi ro an toàn vô lý bao gồm cả ATTT vật lý, trong điều kiện sử dụng bình thường hoặc có thể thấy trước hoặc sử dụng sai mục đích trong suốt vòng đời của chúng. Các luật và quy định hiện hành trong các lĩnh vực như bảo vệ người tiêu dùng đã xác định những gì cấu thành rủi ro an toàn không hợp lý. Các chính phủ, sau khi tham khảo ý kiến của các bên liên quan, phải xác định mức độ áp dụng đối với các hệ thống AI.

Các tác nhân AI có thể sử dụng phương pháp quản lý rủi ro để xác định và bảo vệ khỏi việc lạm dụng có thể thấy trước, cũng như chống lại các rủi ro liên quan đến việc sử dụng hệ thống AI cho các mục đích khác với mục đích mà chúng được thiết kế ban đầu. Các vấn đề về tính bền vững và ATTT của AI được liên kết với nhau. Ví dụ: bảo mật kỹ thuật số có thể ảnh hưởng đến sự an toàn của các sản phẩm được kết nối như ô tô và thiết bị gia dụng nếu rủi ro không được quản lý phù hợp.

Hai cách quan trọng để duy trì các hệ thống AI bền vững và ATTT là:

- Truy xuất nguồn gốc: giống như khả năng giải thích, truy xuất nguồn gốc có thể giúp phân tích và tìm hiểu kết quả của hệ thống AI, là một cách để thúc đẩy trách nhiệm giải trình. Khả năng theo dõi khác với khả năng giải thích ở chỗ trọng tâm là duy trì hồ sơ về các đặc điểm dữ liệu, chẳng hạn như siêu dữ liệu, nguồn dữ liệu và làm sạch dữ liệu, chứ không nhất thiết phải là chính dữ liệu. Trong đó, truy xuất nguồn gốc có thể giúp hiểu được kết quả, ngăn ngừa những sai lầm trong tương lai và cải thiện độ tin cậy của hệ thống AI.

đến hành vi và kết quả của hệ thống. Việc ghi lại các quyết định quản lý rủi ro được đưa ra ở mỗi giai đoạn vòng đời có thể góp phần thực hiện các nguyên tắc minh bạch và trách nhiệm giải trình khác.

Giải quyết các thách thức về an toàn thông tin của các hệ thống AI phức tạp là rất quan trọng để củng cố niềm tin vào AI, đặt ưu tiên cho việc thúc đẩy Nguyên tắc AI của G20. Các vấn đề của AI có mối liên hệ với nhau và có tác động đến cuộc sống hàng ngày cũng như các hoạt động kinh tế và xã hội quan trọng.

Ví dụ: bảo mật kỹ thuật số có thể ảnh hưởng đến độ an toàn của sản phẩm nếu các sản phẩm được kết nối như ô tô không người lái hoặc thiết bị gia dụng hỗ trợ AI không đủ an toàn trong suốt vòng đời của chúng; tin tặc có thể kiểm soát chúng và thay đổi cài đặt từ xa. Ngay cả khi hoạt động của một hệ thống chỉ gây ra tác hại nhỏ, nó vẫn có thể yêu cầu độ ổn định cao nếu tác hại này xảy ra trên một số lượng lớn người hoặc lĩnh vực với các tác động gây gián đoạn và đáng kể chung.

Ngày nay, với sự bùng nổ của công nghệ số, sự phát triển mạnh mẽ của AI trên toàn cầu thì sự tin cậy và việc bảo đảm an toàn thông tin luôn được đặt lên hành đầu. Từ những phân tích nêu trên, chúng ta thấy được các quốc gia đi đầu trên thế

- Phương pháp quản lý rủi ro: Các hệ thống AI đặt ra những rủi ro tiềm ẩn đối với quyền con người, tính toàn vẹn của cơ thể, quyền riêng tư, sự công bằng, bình đẳng và mạnh mẽ. Bảo vệ khỏi những rủi ro này đòi hỏi chi phí, bao gồm cả việc xây dựng tính minh bạch, trách nhiệm giải trình, an toàn và bảo mật trong các hệ thống AI.

Các cách sử dụng AI khác nhau có những rủi ro khác nhau và một số rủi ro đòi hỏi tiêu chuẩn phòng ngừa hoặc giảm thiểu cao hơn những rủi ro khác. Phương pháp quản lý rủi ro, được áp dụng trong suốt vòng đời của hệ thống AI, có thể giúp xác định, đánh giá, ưu tiên và giảm thiểu rủi ro tiềm ẩn có thể ảnh hưởng xấu giới về công nghệ đang đặt trọng tâm đánh giá và hướng dẫn sự phát triển của công nghệ AI lên cấp độ toàn cầu./.

Trung tâm CNTT