The argument in favor of using filler text goes something like this: If you use real content in the Consulting Process, anytime you reach a review point you’ll end up reviewing and negotiating the content itself and not the design.
ConsultationTrong vài năm qua, đạo đức AI đã phát triển từ một câu hỏi mang tính triết học thành một nhu cầu hữu hình.
► Chuyển đổi số - Digital Transformation - là gì?
► Top 5 Xu Hướng Công Nghệ AI: Tương Lai Của Chuyển Đổi Số
► Kỷ nguyên ngôn ngữ AI và tương lai công nghệ
Khái niệm về đạo đức AI
Các học giả, nhà chuyên môn, các tổ chức liên quan đến AI đã cố gắng đưa ra các định nghĩa về AI trong suốt quá trình phát triển, kể từ khi hình thành cho đến sự phát triển mang tính đột phá của công nghệ này ở giai đoạn hiện nay. Một số cách tiếp cận định nghĩa đạo đức AI có thể mang tính khái quát hóa, không thể hiện được hết tính chất và đặc điểm của công nghệ này. Trong khi đó các cách tiếp cận khác về định nghĩa AI lại chỉ chú trọng vào những lĩnh vực khía cạnh phát triển, ứng dụng hoặc những tác động đến các đối tượng, lĩnh vực mà họ quan tâm. Dưới đây là những định nghĩa điển hình về đạo đức AI:
“Đạo đức AI là tập hợp các giá trị, nguyên tắc, kỹ thuật sử dụng các tiêu chuẩn về đúng, sai được chấp nhận rộng rãi để hướng dẫn các hành vi đạo đức trong phát triển và sử dụng công nghệ AI” - (Viện Alan Turing).
“Đạo đức AI là lĩnh vực nghiên cứu đa nguyên tắc và nhiều bên liên quan nhằm xác định và thực thi các giải pháp kỹ thuật cũng như phi kỹ thuật để giải quyết các mối quan tâm và giảm thiểu các rủi ro mà công nghệ này mang lại” - (Diễn đàn Kinh tế thế giới).
Đạo đức AI là “Sự phản ánh có tính hệ thống và tính quy phạm một cách toàn diện, tổng thể và theo khung phát triển các giá trị, nguyên tắc và hành động phụ thuộc lẫn nhau nhằm hướng dẫn cộng đồng, xã hội đối phó một cách có trách nhiệm với các tác động đã biết và chưa biết của công nghệ AI đối với con người, xã hội, môi trường và hệ sinh thái; đồng thời cung cấp cho họ cơ sở để chấp nhận hoặc từ chối các công nghệ AI” - (UNESCO).
Như vậy có thể thấy rằng không có một định nghĩa duy nhất về đạo đức AI. Điều này cũng không cản trở việc chúng ta nhận thức để có thể hiểu bản chất về đạo đức AI. Đạo đức AI có thể được nhận thức bằng những cách thức khác nhau để có thể hiểu được những nội hàm của nó, chẳng hạn như đặc điểm, tính chất, các thuộc tính cũng như mối liên hệ tương quan với các đối tượng gần gũi với nó.
Trong đó việc nghiên cứu những mối liên hệ giữa đạo đức AI với những khía cạnh cơ bản của hệ thống lý luận về đạo đức là sự cần thiết nhằm xác định vị trí, vai trò của nó trong hệ thống này; cũng như tác động của những nguyên tắc cơ bản của nền tảng đạo đức tổng quát đối với một lĩnh vực cụ thể là đạo đức AI.
Phương pháp tiếp cận nhận thức về đạo đức AI
Hiện nay tồn tại một vài cách tiếp cận thực hiện đạo đức AI nhằm cung cấp cho các hệ thống này các nguyên tắc mà chúng có thể sử dụng để đưa ra các quyết định liên quan đến đạo đức. Thực tế cho thấy rằng việc áp dụng AI một cách có đạo đức vẫn còn nảy sinh những quan điểm chưa rõ ràng và chưa được chấp thuận rộng rãi.
Nếu như chúng ta nói về quan điểm “AI để kiểm soát” với các hệ thống được nhà nước đầu tư, sử dụng làm công cụ để kiểm soát an ninh và xã hội, chẳng hạn như hệ thống chấm điểm công dân của Trung Quốc. Mô hình này sử dụng AI theo quan điểm đặt quyền và lợi ích của đa số lên trên quyền và lợi ích của từng cá nhân sống trong xã hội.
Tiếp theo là mô hình “AI vì lợi nhuận”. Mô hình này hướng tới việc phát triển và triển khai các hệ thống AI bởi các công ty thống trị phần lớn thị trường của công nghệ này. Các mô hình triển khai ưu tiên lợi ích kinh tế đem lại cho các doanh nghiệp từ những ứng dụng do các hệ thống này tạo ra. Chúng ta có thể thấy mô hình này chiếm ưu thế ở Mỹ. Những lợi ích mà các công ty này hướng tới đó là thu thập, dữ liệu trên mạng trực tuyến; thông tin dữ liệu, thói quen, hành vi, các đóng góp từ người sử dụng các ứng dụng để phục vụ các mục đích kinh doanh, bán dịch vụ quảng cáo. Thực tế đã phát sinh những hệ lụy sự tranh cãi về xâm phạm tính riêng tư, thông tin dữ liệu cá nhân, vi phạm bản quyền, thao túng để định hướng thông tin, đưa thông tin sai lệch. Mặc dù quốc gia này có hệ thống văn bản pháp luật quy định rất khắt khe về những vấn đề nói trên.
Mô hình “AI vì xã hội” là khuôn khổ nhằm chống các quan điểm AI để kiểm soát và vì lợi nhuận đưa ra bởi Trung Quốc và Hoa Kỳ. Quan điểm này đặt các nguyên tắc đạo đức và quyền riêng tư của người dùng lên trên sự phát triển công nghệ của AI. Đây là lập trường mà Liên minh châu Âu đang theo đuổi. Họ đã đề xuất nhiều sáng kiến thực thi khác nhau nhằm tạo ra các khuôn khổ, hành lang pháp lý để điều chỉnh sự phát triển của công nghệ. Việc sử dụng dữ liệu cá nhân cho mục đích cụ thể ở châu Âu phải có sự đồng ý rõ ràng của các pháp nhân. Trong khi ở Mỹ sự đồng ý cho sử dụng thông tin và dữ liệu cá nhân mang tính chất ngầm định. Nghĩa là nếu một cá nhân không muốn một công ty xử lý dữ liệu cá nhân của mình, thì người đó phải đưa yêu cầu cụ thể đề nghị công ty đó không làm như vậy.
Tuy nhiên, nơi mà một quốc gia, khu vực nào đó thực hiện những nỗ lực áp dụng các nguyên tắc đạo đức trong AI có thể làm trì hoãn sự đổi mới công nghệ ở nơi đó. Nó khiến cho các thị trường khác ít bị hạn chế hơn sẽ vươn lên dẫn đầu, tăng chỉ số về mặt phát triển, ứng dụng công nghệ. Nó còn có thể là nguyên nhân nới rộng thêm khoảng cách công nghệ giữa các quốc gia và khu vực trong phạm vi toàn cầu.
Các nguyên tắc đạo đức cơ bản của AI
Tài liệu nghiên cứu về nguyên tắc đạo đức có tính toàn diện và tổng thể gần đây của Jobin (2019) và Hagendorff (2020) được thực hiện trên cơ sở phân tích, tổng hợp các đề xuất về nguyên tắc đạo đức từ các tài liệu của HLEG AI, các hiệp hội (tuyên bố Barcelona (2017), tuyên bố Montreal (2018)) và từ nhiều tài liệu khác. Nó xác định 11 giá trị hoặc nguyên tắc đạo đức AI mang tính phổ biến nhất như sau:
1. Tính minh bạch/có thể giải thích được
Thể hiện cách thức để giảm thiểu rủi ro, đồng thời xác định và khắc phục sự vi phạm về đạo đức thông qua việc hệ thống AI tự kiểm tra chính nó. Nó là yếu tố quan trọng để thể hiện và chứng minh cho xã hội về nhu cầu cần thiết sử dụng các hệ thống AI.
2. Công bằng/bình đẳng
Đề cập đến việc mọi người có quyền truy cập và được đối xử công bằng từ các hệ thống AI. Nó thể hiện sự bình đẳng trong việc giám sát, ngăn ngừa, giảm thiểu các hành vi không công bằng và mang tính thiên vị. Một cách tiếp cận khác của khía cạnh này là công bằng về sự đa dạng, hòa nhập và bình đẳng.
3. Bảo mật/phòng ngừa
Nó phản ánh thực tế rằng AI không bao giờ được gây ra tác hại có thể lường trước hoặc ngoài ý muốn. Nó cũng xác định các rủi ro bảo mật cụ thể như khai thác lỗ hổng, điểm yếu về bảo mật, tấn công hoặc chiến tranh mạng. Sự phòng ngừa có thể bao gồm các chức năng ngăn ngừa các tác động tâm lý, tình cảm hoặc ảnh hưởng tới xã hội, kinh tế có thể xảy ra. Các hướng dẫn bảo mật và ngăn ngừa tác hại tập trung chủ yếu vào các biện pháp kỹ thuật và quản trị dành cho AI.
4. Trách nhiệm
Nó đề cập đến khả năng ứng xử một cách chính trực đối với các hành động và quyết định của AI.Nó bao gồm các vấn đề như liệu AI có nên chịu trách nhiệm theo cách của con người hay liệu con người có nên là tác nhân duy nhất chịu trách nhiệm cuối cùng đối với các hệ thống AI hay không. Cuối cùng, để làm rõ việc quy kết trách nhiệm nó có thể bao gồm việc gắn cả trách nhiệm pháp lý đối với các hành động và quyết định của AI.
5. Quyền riêng tư
Quyền riêng tư thường được thể hiện liên quan đến bảo vệ và sự tin cậy về việc thu thập, lưu trữ và sử dụng dữ liệu, thông tin của cá nhân, tổ chức, doanh nghiệp. Có ba cách thức để đạt được điều này là: (1) các giải pháp kỹ thuật (ví dụ thiết kế, tối thiểu hóa việc sử dụng dữ liệu, kiểm soát truy cập), (2) nghiên cứu việc nâng cao nhận thức về sử dụng dữ liệu, (3) thích ứng các thông số kỹ thuật của AI với các quy định về sử dụng và bảo vệ dữ liệu riêng tư.
6. Phúc lợi
Nguyên tắc này liên quan đến việc áp dụng AI đem lại lợi ích cho xã hội, cho con người; tạo ra các loại tài nguyên, giá trị, cơ hội mới để thúc đẩy phát triển kinh tế xã hội. Có một số điều không chắc chắn xung quanh việc bên nào sẽ được hưởng lợi từ AI. Ví dụ khu vực tư nhân có xu hướng nêu bật lợi ích của việc sử dụng AI đối với khách hàng ở một khía cạnh nào đó. Nhưng ý tưởng về lợi ích cho tất cả mọi người (đáp ứng các mục tiêu phát triển bền vững SDG của Liên Hợp Quốc) cần phải được xác định và chia sẻ với cộng đồng, người sử dụng.
7. Tự do/Tự chủ
Khái niệm này liên quan đến quyền tự do sử dụng các nền tảng hoặc công nghệ ưa thích. Nó cũng đề cập đến quyền cho phép hoặc tự do rút lại sự đồng ý (ví dự như sử dụng dữ liệu cá nhân). Quyền tự chủ liên quan đến quyền kiểm soát của người dùng, chủ yếu để bảo vệ quyền riêng tư. Người ta thường tin rằng tự do và quyền tự chủ được thúc đẩy thông qua sự minh bạch trong các hệ thống AI.
8. Sự tin tưởng
Điều này liên quan đến ý tưởng thực thi AI đối với các nhà phát triển và các bên liên quan áp dụng “các nguyên tắc thiết kế” đáng tin cậy. Mặt khác nó cũng nhấn mạnh tầm quan trọng của sự tin tưởng của khách hàng vào AI. Việc sử dụng nguyên tắc này ngày càng trở nên quan trọng vì người ta tin rằng “văn hóa tin cậy” là nền tảng để đạt được các mục tiêu đối với hoạt động của một cộng đồng, tổ chức. Khái niệm này cũng được sử dụng để cảnh báo nhằm chống lại sự tự tin thái quá có thể xảy ra đối với AI, đảm bảo rằng AI được nghiên cứu phát triển, thử nghiệm, triển khai vận hành đáp ứng được kỳ vọng đề ra.
9. Tính bền vững
Tính bền vững đối với AI liên quan đến việc triển khai công nghệ này để bảo vệ môi trường, tăng cường hệ sinh thái và đa dạng sinh học; đóng góp cho việc thúc đẩy xã hội công bằng, bình đẳng hơn và thúc đẩy hòa bình. Nó thường đề cập đến hiệu quả sử dụng sử dụng năng lượng và năng lượng tái tạo; giảm thiểu các tác động đến môi trường và xã hội như giải quyết mối quan hệ giữa vấn đề việc làm trong xã hội và thúc đẩy triển khai AI.
10. Nhân phẩm
Đôi khi người ta lập luận rằng AI không làm giảm sút hay hủy hoại phẩm giá của con người, mà nó giúp con người tôn trọng, giữ gìn và trên hết là nâng cao phẩm giá đó. Tuy nhiên, phẩm giá chỉ có thể được bảo tồn và phát huy nếu nó được các nhà phát triển AI và các bên liên quan tôn trọng. Điều này đòi hỏi họ phải hiểu biết sâu sắc về xã hội, văn hóa dân tộc bản địa và tuân thủ các giá trị phổ quát về nhân phẩm, quy định của luật pháp sở tại, các sáng kiến, hướng dẫn kỹ thuật và phương pháp luận tiên tiến để thực thi vấn đề này trong AI.
11. Sự gắn kết
Đề cập đến những rủi ro do tác động của sử dụng AI đến các lĩnh vực dẫn đến sự chia rẽ các đối tượng, thành phần trong xã hội. Điều này có thể có thể dẫn tới những vấn đề như “chủ nghĩa cá nhân cực đoan” được tạo ra bởi những người có quyền thao túng trong việc triển khai AI. Nó cũng đề cập đến phản ứng trái chiều của các nhóm người trong xã hội do tác động của AI, đặc biệt là đối với những cá nhân và nhóm dễ bị tổn thương nhất.
Tại sao đạo đức AI trở thành mối quan tâm lớn hiện nay?
Trong vài năm qua, đạo đức AI đã phát triển từ một câu hỏi mang tính triết học thành một nhu cầu hữu hình. Chúng ta cần đặt sự xuất hiện này trong tiến trình của “Cuộc Cách mạng công nghiệp lần thứ tư”. Trong đó, bên cạnh AI còn có các công nghệ khác như dữ liệu lớn, người máy và Internet vạn vật (IoT). Sự hội tụ của các công nghệ này được đặc trưng bởi tốc độ, phạm vi và tác động của nó đối với sự chuyển đổi số trong xã hội. Mặc dù các hệ thống này được thiết kế như những công cụ để cải thiện chất lượng cuộc sống của chúng ta, nhưng chúng thường gây rủi ro và tạo ra những kết quả tiêu cực trên bình diện xã hội. Theo Narayanan (giáo sư đại học Princeton – Mỹ), mối quan tâm về AI có thể được chia thành ba loại dựa trên sự phát triển và sử dụng của nó:
Ứng dụng AI có thể làm nảy sinh các vấn đề về nhận thức. Điều này chúng ta thấy trong phần mềm AI dùng để nhận dạng hình ảnh, nhận dạng khuôn mặt, chẩn đoán y tế qua hình ảnh hoặc các video, hình ảnh giả mạo (deepfakes). Những ứng dụng này hiện nay đang được dư luận quan tâm về độ chính xác của các kết quả cũng như năng lực thể hiện của nó vượt quá khả năng nhận biết đúng sai của con người.
Việc ứng dụng trí tuệ nhân tạo trong tự động hóa quy trình đưa ra các dự đoán, quyết định, chẳng hạn như hỗ trợ con người đưa ra đề xuất về một nội dung, lời nói mang tính thù hận nào đó hoặc phát hiện thư rác. Sự phát triển của trí tuệ nhân tạo chưa hoàn hảo và nó vẫn trong quá trình hoàn tự hoàn thiện để cố gắng bắt chước suy luận của con người. Quan điểm cho rằng “AI sẽ không bao giờ có thể giống con người” làm nảy sinh mối lo ngại hậu quả từ những sai sót, lệch lạc liên quan đến các vấn đề đạo đức là không thể tránh khỏi.
Ứng dụng trí tuệ nhân tạo để quản lý các hiện tượng xã hội, chẳng hạn như dự báo chính sách, quản lý tội phạm, dự báo việc làm v.v.. là những vấn đề được quan tâm về mặt đạo đức. Thực tế cho thấy nó còn thể hiện sự đơn giản trong cách xử lý các vấn đề (kinh tế, xã hội, văn hóa v.v..) nên đưa ra kết quả với mức độ chính xác không cao trong các dự báo của chúng.
Có lẽ một trong những trường hợp nổi bật là COMPAS, một phần mềm hiện đang được sử dụng ở các bang của Hoa Kỳ để dự đoán mức độ tái vi phạm luật pháp và các hành động bạo lực của tù nhân. Việc tính toán rủi ro tái phạm được thiết lập thông qua một bảng câu hỏi và được tính toán trên cơ sở hồ sơ tội phạm của người bị kết án đã cho những kết quả sai lệch do sự thiên vị. Rủi ro tái phạm của một nhóm người cụ thể do COMPAS dự đoán là 61%, trong khi điều tra thực tế do tổ chức ProPublica thực hiện chỉ là 20%.
Một vấn đề tương tự đã xảy với hệ thống trợ cấp hóa đơn điện của chính phủ Tây Ban Nha. BOSCO là phần mềm sử dụng để xác định ai có thể nhận hỗ trợ tài chính cho hóa đơn tiền điện. Hệ thống này đã nhận được một lượng rất lớn đơn khiếu nại về việc từ chối hỗ trợ đối với những người đáp ứng tất cả các yêu cầu để được hỗ trợ tài chính, cũng như phản ứng về sự một số khía cạnh thực hiện thiếu minh bạch của hệ thống. Civio, một tổ chức phi lợi nhuận thực hiện điều tra và nhận thấy rằng BOSCO đã từ chối hỗ trợ một cách có hệ thống với những người nộp đơn đủ điều kiện như người hưu trí hoặc góa phụ. Theo ước tính của chính phủ 2,5 triệu trong số 5,5 triệu hộ gia đình sẽ được hưởng trợ cấp của chính phủ trong khi hệ thống chỉ chấp nhận 1,1 triệu hộ.
Hiện tượng đang nổi lên hiện nay là sản phẩm ChatGPT của Open.AI đang thu hút sự chú ý của người dùng mạng. ChatGPT (Generative Pre- training Trans-former 4) là một ứng dụng hội thoại người – máy sử dụng công nghệ xử lý ngôn ngữ tự nhiên (NLP) được coi là tiên tiến nhất. Với gần 100 triệu người dùng hiện ChatGPT đã tích lũy được một lượng lớn người hâm mộ nhờ khả năng kỳ lạ bắt chước cuộc trò chuyện của con người và cung cấp nhiều dịch vụ, từ trả lời các câu hỏi về kiến thức cho đến viết bài luận ở mọi lĩnh vực; sáng tác thơ, nhạc cho đến giải các bài toàn, viết mã máy tính v.v..
ChatGPT tuy mới phát hành được vài tháng nhưng nó đã được các cộng đồng chuyên gia, các nhà quản lý và người dùng quan tâm đặc biệt về các vấn đề đã và đang phát sinh đối với ứng dụng này. Các nghiên cứu đánh giá thực nghiệm mới được thực hiện gần đây thừa nhận rằng ChatGPT đã đạt được những tiến bộ hơn các sản phẩm trước đó về xử lý ngôn ngữ tự nhiên. Tuy nhiên họ cũng đã chỉ ra những mối quan tâm dưới đây về rủi ro liên quan đến thực thi đạo đức và cách thức hệ thống này thực hiện nó như thế nào:
- Mối lo ngại về an toàn, bảo mật. Người ta lo ngại rằng ChatGPT được đào tạo dựa trên lượng lớn dữ liệu văn bản và có nguy cơ thông tin nhạy cảm có thể vô tình được đưa vào đầu vào các tham số mô hình của nó. Những tác động tiềm ẩn và bằng chứng cho thấy ChatGPT được sử dụng bởi những kẻ xấu. Chúng có thể sử dụng những mã phần mềm do ChatGPT tạo ra để tạo các phần mềm độc hại cho phép kẻ tấn công tự động hóa các hành vi phá hoại mà không bị phát hiện. Điều này khiến tất cả mọi người, đặc biệt là những người thuộc nhóm người dễ bị tổn thương gặp rủi ro cao hơn vì khả năng tạo ra các vụ lừa đảo ngày càng tinh vi hơn.
- Mối lo ngại về sự thiên vị (nguyên lý công bằng và bình đẳng). Họ cho rằng ChatGPT còn thiếu hiểu biết về xử lý đa ngôn ngữ do tính đa dạng và phức tạp về ngữ nghĩa của nó. Do không hiểu đúng ngữ nghĩa theo ngôn ngữ, thiếu những tri thức về văn hóa bản địa nên nó có thể bị sai lệch trong quá trình ra quyết định và sáng tạo các nội dung cung cấp đến người sử dụng. ChatGPT được đào tạo trên một lượng lớn dữ liệu dựa trên tài liệu, văn bản, trang web mà trong đó có thể chứa các nội dung, quan điểm không chính thức, còn thiếu chính xác hoặc đang được thảo luận; thậm chí còn thể hiện quan điểm thành kiến, phân biệt hoặc thiên vị. Điều này có thể dẫn đến việc mô hình tạo ra kết quả sai lệch hoặc không công bằng, đặc biệt trong trường hợp dữ liệu không có tính đại diện và tính đa dạng.
- Mối lo ngại về vi phạm bản quyền (nguyên tắc trách nhiệm, giải trình). GPT thông qua trả lời các câu hỏi của người dùng nó có thể cung cấp một lượng tri thức rất có ý nghĩa cho người dùng. Thậm chí đó là tri thức rất chuyên sâu ở một lĩnh vực nào đó. Điều này có khả năng vướng vào những vấn đề pháp lý về vi phạm bản quyền. Vì ứng dụng này tạo ra văn bản tương tự hoặc giống với nội dung có bản quyền mà không có những trích dẫn, tham khảo phù hợp.
- Mối lo ngại về vi phạm về dữ liệu cá nhân (nguyên lý về quyền riêng tư). Ứng dụng này có thể tạo ra thông tin cá nhân hoặc dữ liệu nhạy cảm có thể được sử dụng để nhận dạng hoặc gây hại cho một cá nhân nào đó.
- Mối lo ngại về tạo và phổ biến các thông tin giả mạo, sai lệch (nguyên tắc về sự tin tưởng). Ứng dụng ChatGPT (hay mô hình, thuật toán mà nó áp dụng) có thể bị sử dụng sai mục đích (chủ ý hoặc lỗ hổng trong thiết kế) tạo ra các nội dung giả mạo hoặc sai lệch, chẳng hạn như văn bản, lời nói, hình ảnh, video và phổ biến các thông tin này, tạo ra luồng thông tin có định hướng sai lệch, khiến mọi người hiểu lầm về một vấn đề nào đó.
Nghị viện châu Âu đang xem xét đưa các quy định về việc sử dụng các mô hình AI tổng quát, chẳng hạn như ChatGPT vào danh mục “rủi ro cao” trong bản dự thảo sắp tới về Đạo luật AI. Tại Pháp, Bộ trưởng phụ trách các vấn đề kỹ thuật số đã yêu cầu Ủy ban quốc gia Pháp về đạo đức kỹ thuật số (CNPEN) cho ý kiến về về các vấn đề đạo đức do hệ thống tạo văn bản tự động đặt ra, dự kiến sẽ được công bố vào ngày 30/6/2023.
Mặc dù chúng ta đã chứng kiến những tiến bộ vượt bậc trong lĩnh vực điện toán trong những năm gần đây và điều này giải thích cho sự phát triển nhanh chóng của AI. Nhưng mọi thứ vẫn còn là một chặng đường dài phía trước cho đến khi máy móc có thể đạt đến mức độ tư duy như con người. Chúng ta thường nói về năng lực mà không hiểu rõ hiểu rõ bản chất của chúng. Vì vậy chúng ta không thể yêu cầu máy móc thực hiện các hoạt động có đạo đức, nhưng chúng ta cần thiết lập các thông số đạo đức trong thiết kế của công nghệ này để hạn chế những rủi ro tiềm ẩn liên quan đến việc sử dụng nó.
Kết luận và khuyến nghị
Hiện tồn tại một số quan điểm khác nhau về đạo đức trong AI tùy theo mục đích sử dụng, như “AI để kiểm soát”, “AI vì lợi nhuận” hoặc “AI vì xã hội”. Tuy vậy mọi quan điểm thực thi đạo đức nói trên đều được thực hiện theo cách tiếp cận mang tính khoa học, hệ thống từ những nguyên lý cơ bản về đạo đức. Mục tiêu chính của thực thi đạo đức AI đó là hình thành, xây dựng được khuôn khổ thực thi đạo đức về AI. Thông qua việc nắm bắt, nhận thức những vấn đề về đạo đức AI; một số nội dung, công việc dưới đây cần được triển khai trong thời gian tới nhằm làm rõ những vấn đề về thực thi đạo đức đối với sản phẩm, dịch vụ AI trong nước, xét dưới góc độ quản lý nhà nước về lĩnh vực này:
Nghiên cứu kinh nghiệm của thế giới về quản lý đạo đức trong AI. Trong đó tập trung vào nghiên cứu kinh nghiệm của các quốc gia, khu vực đang dẫn đầu về phát triển và ứng dụng AI. Ngoài ra cũng cần nghiên cứu, tham khảo kinh nghiệm về vấn đề này của các nước Asean để có nhận thức, định hướng quan điểm, tiếng nói chung về thực thi đạo đức AI trong phạm vi khu vực.
Nghiên cứu rà soát, phân tích, tổng hợp các quy định hiện hành của hệ thống văn bản quy phạm pháp luật, các quy tắc, quy định ở mọi lĩnh vực liên quan đến các vấn đề thực thi đạo đức AI. Vấn đề này cần được thực hiện nhằm làm rõ mối liên hệ giữa thực thi đạo đức AI với sự tuân thủ các quy định của luật pháp, chấp hành các quy tắc hiện hành đối với các chủ thể thuộc phạm vi điều chỉnh.
Xây dựng bộ nguyên tắc đạo đức cơ bản về AI phù hợp với điều kiện của Việt Nam. Bộ nguyên tắc được xây dựng cần tiếp thu kinh nghiệm của thế giới đảm bảo những nguyên tắc cơ bản nhất của thực thi đạo đức phổ quát và tính đến điều kiện đặc thù về dân tộc, văn hóa, thể chế chính trị của Việt Nam.
Từng bước xây dựng và ban hành các tiêu chuẩn kỹ thuật về thực thi đạo đức trong AI. Thực hiện xem xét, tham chiếu, lựa chọn để xây dựng và ban hành các tiêu chuẩn quốc gia liên quan đến các yêu cầu chung về thực thi đạo đức AI cũng như cho từng lĩnh vực ứng dụng cụ thể.
Từng bước xây dựng các nguyên tắc thiết kế, quy tắc thực hành, quy tắc ứng xử có đạo đức phù hợp với từng lĩnh vực của AI, chẳng hạn như trong y tế, giáo dục, khoa học công nghệ v.v.. Cần xem xét bao hàm các nội dung quy tắc đã được ban hành áp dụng chẳng hạn như đạo đức công vụ, đạo đức trong y tế, đạo đức trong giáo dục, đạo đức trong khoa học công nghệ v.v...
Đánh giá tác động, ảnh hưởng của đạo đức AI trên môi trường số. Điều này cần được thực hiện thông qua khảo sát, thu thập phản ánh, phân tích thông tin đối với các hiện tượng, hành vi liên quan đến đạo đức của hệ thống, nền tảng, sản phẩm, dịch vụ có ứng dụng công nghệ AI như mạng xã hội, nền tảng thương mại điện tử, tuyển dụng, các ứng dụng cho vay tín dụng trong lĩnh vực ngân hàng, tài chính, các ứng dụng cung cấp dịch vụ công v.v..
Từng bước triển khai tổ chức hoạt động kiểm tra, đánh giá, thẩm định các sản phẩm dịch vụ AI. Để thực hiện các vấn đề trên thì việc đầu tư các phòng thử nghiệm đo lường, đánh giá kỹ thuật, công nghệ, đào tạo nhân lực, đội ngũ chuyên gia cũng như các vấn đề mang tính đặc thù đối với hệ thống, sản phẩm, dịch vụ AI là rất cần thiết trong những năm tới.
Cuối cùng, các nội dung quản lý về thực thi đạo đức AI nói trên cần phải đặt trong một khuôn khổ thực hiện chung đó là khung thực thi đạo đức AI có mục tiêu, kết quả và lộ trình các bước thực hiện cụ thể. Các nội duCng của nó cần phải bao hàm trong chiến lược tổng thể về phát triển và ứng dụng AI quốc gia.
Theo: ictvietnam