Những kẻ lừa đảo đang cố gắng ăn cắp giọng nói của chúng ta – làm sao có thể tự bảo vệ?

Những kẻ lừa đảo đang cố gắng ghi âm lại giọng nói của mọi người, và đào tạo AI nhằm tạo ra các giọng nói giả mạo để lừa đảo và tống tiền nạn nhân.

A woman sitting on a couch while talking on the phone.

While voice clone frauds have long been used for catfishing, financial fraud and political sabotage, technological advances are making them harder to detect. Source: Getty / Skynesher

Key Points
  • Bọn tội phạm đang sử dụng các công nghệ AI ngày càng tinh vi, để tái tạo giọng nói của con người nhằm mục đích trục lợi.
  • Việc giả giọng âm thanh deepfake có thể trở thành vũ khí cho bọn chúng theo nhiều cách khác nhau, bao gồm mánh khoé gian lận tài chính, phỉ báng và lao động giá rẻ.
  • Các chuyên gia kêu gọi mọi người hãy thận trọng khi trả lời các cuộc điện thoại đáng ngờ hoặc chia sẻ thông tin online.
Theo các chuyên gia, những kẻ lừa đảo qua điện thoại đang cố gắng ghi âm và sao chép giọng nói của những nạn nhân, nhằm mục đích ăn cắp danh tính của họ, tạo ra âm thanh giả mạo và tống tiền những người thân yêu của họ.

Trò lừa đảo giả giọng nói đã được sử dụng như một mánh khoé gian lận tài chính và phá hoại chính trị trong nhiều năm. Nhưng với xu hướng ngày càng gia tăng, bọn tội phạm đang áp dụng các công nghệ tinh vi để ghi âm các cuộc gọi điện thoại, tái tạo giọng nói của mọi người và biến chúng thành vũ khí để trục lợi.
Những trò lừa đảo giả giọng nói ngày càng gia tăng và gây hậu quả lớn, vì vậy các cơ quan, tổ chức và các nhóm bảo vệ người tiêu dùng - từ Ngân hàng Quốc gia Úc NAB đến chính phủ Tây Úc - đều đang tích cực kêu gọi mọi người hãy cảnh giác.

Monica Whitty là giáo sư an ninh mạng, chuyên về yếu tố con người trong thuật toán, và là trưởng khoa phần mềm và an ninh mạng tại trường đại học Monash, cho biết: “Chúng ta từng lo lắng về việc những người gọi đến cố gắng lấy thông tin của chúng ta hoặc nói với chúng ta rằng chúng ta phải trả một khoản nào đó như phí tổn cầu đường hoặc bất cứ số nợ tiền gì”.

"Thế nhưng bây giờ họ có thể thu thập các phần giọng nói của bạn để sau đó có thể sử dụng và huấn luyện bằng AI… để có được sản phẩm nghe giống như bạn nói."

Những kẻ lừa đảo thực hiện giả giọng nói như thế nào?

Giáo sư Whitty đưa ra một kịch bản tiềm năng, đó là giọng nói của một người có thể bị đánh cắp và sử dụng lại vì lợi ích của bọn tội phạm.

Đầu tiên, một người có thể trả lời một cuộc gọi từ một số điện thoại ẩn danh và có thể nói chuyện ngắn gọn với người ở đầu bên kia - vốn là một kẻ lừa đảo mà họ không hề hay biết. Sau đó, bản ghi âm cuộc trò chuyện đó có thể được sử dụng để "huấn luyện" AI về cách tái tạo giọng nói của nạn nhân, không chỉ nguyên văn mà còn phát triển theo nhiều nội dung khác nhau.

Bản sao giọng nói này, còn được gọi là âm thanh deepfake, có thể được sử dụng để lừa đảo người khác.

Giáo sư Whitty nói:

"Những kẻ lừa đảo có thể gọi điện thoại cho một thành viên trong gia đình tôi, sử dụng giọng nói của tôi để nói: “Tôi bị mất ví tiền, tôi đang ở Tây Ban Nha – em/con có thể gửi cho tôi một ít tiền không? Việc này thực sự rất khẩn cấp. Tôi đã bị bắt cóc. Bọn chúng bắt tôi làm con tin”.

“Vì vậy, họ sẽ dàn dựng một kịch bản giả bằng giọng nói của bạn để hợp pháp hóa kịch bản đó”.
Two hands of a person wearing a red sweater hold a smartphone
Both video and audio deepfakes can be used for more than just financial fraud. Source: AAP
Mặc dù gian lận bằng giọng nói không phải là mới nhưng giáo sư Whitty và những chuyên gia khác nhấn mạnh rằng những tiến bộ công nghệ đã khiến ứng dụng giả giọng trở nên đa dạng và hiệu quả hơn.

Giáo sư Whitty nói rằng trong các vụ lừa đảo mà nhất là lừa đảo tình cảm lãng mạn hoặc lừa đảo về đầu tư, thì trước đây bọn chúng chỉ giả giọng khi có vẻ như nạn nhân đang nghi ngờ đó là mối quan hệ giả tạo… thì nói chuyện qua lại thay vì chỉ nhắn tin sẽ giúp phát triển thêm sự tin tưởng và nâng cao mối quan hệ.

"Thế nhưng bây giờ nó đã phát triển đến mức công nghệ có thể bắt chước giọng nói của ai đó mà bạn thực sự quen biết. Vì vậy, càng khiến tội phạm lợi dụng điều đó trong những vụ lừa đảo mới này."

Shahriar Kaisar, nhà nghiên cứu an ninh mạng và trưởng khoa Kinh doanh và Bảo mật thông tin của trường đại học RMIT, nói rằng sự phát triển nhanh chóng của công nghệ AI tổng hợp, một hệ thống trí tuệ nhân tạo chẳng hạn như ChatGPT, đã chứng kiến mức độ tinh vi của những trò lừa đảo này phát triển đến “một cấp độ rất khác, nơi mà việc phân biệt giữa cái gì là thật và cái gì không thật trở nên rất khó khăn."

Ông Kaisar giải thích: “Họ sử dụng mô hình máy học machine learning, trong đó họ thu thập các mẫu giọng nói, hoặc đôi khi là hình ảnh video từ các nguồn trực tuyến – có thể là video YouTube hoặc có thể là nội dung nào đó bạn đã chia sẻ trên TikTok”.
Dữ liệu đó sau đó được đưa vào hệ thống và được chia thành "hàng tỷ mili giây hoặc nano giây… để tạo ra một thứ gì đó giống hệt như thật, giống như cách người khác có thể nghe thấy bạn nói."



Ông nói: “Rất khó để phân biệt loại công nghệ này. Không thể biết nó được tạo ra bởi AI hay nó thực sự là thật."

Nạn nhân là ai?

Simon Kennedy nghe các câu chuyện về những người bị ảnh hưởng bởi âm thanh giả mạo mỗi ngày. Với tư cách là chủ tịch Hiệp hội Diễn viên Lồng tiếng Úc (AAVA), ông thuộc về một ngành bị ảnh hưởng đặc biệt bởi công nghệ đang phát triển nhanh chóng này. Ông nói:

“Mọi người đến gặp chúng tôi và nói, 'Ồ, tôi vừa phát hiện ra rằng giọng nói của tôi đang được sử dụng trong một tập phim trên YouTube mà tôi không từng làm gì liên quan tới nó cả, tôi phải làm sao đây?'.

“Thật đáng buồn, ở giai đoạn này, câu trả lời là không nhiều lắm vì luật pháp vẫn chưa bắt kịp.”

Ông Kennedy cho biết không có gì lạ khi các diễn viên lồng tiếng phát hiện ra rằng giọng nói của họ đã bị sao chép, mà không có sự đồng ý của họ, hoặc họ đã bị mất việc vì một bản sao không có sự đồng thuận của chính họ. Ông đang cố gắng đưa chuyện này trở thành luật pháp và quy định để ngăn chặn sự lợi dụng.

Kennedy hợp tác với AAVA, với các dân biểu Úc, sắp xếp các cuộc họp và đưa ra bằng chứng rằng việc ai đó tạo bản sao tổng hợp giọng nói của ai đó mà không có sự đồng ý của họ là bất hợp pháp - một hành động có thể ảnh hưởng đến bất kỳ ai, không chỉ diễn viên lồng tiếng.

Ông Kennedy nói: “Có vẻ như đó là một đề xuất rất đơn giản, nhưng nó vẫn chưa được viết thành luật,” đồng thời ông gợi ý rằng, nếu được thực hiện đúng đắn, luật pháp có thể giúp bảo vệ tiếng nói và hình ảnh của mọi công dân Úc.

"Bạn không thể bắt ai đó làm việc miễn phí trái với ý muốn của họ, và bạn cũng không thể sử dụng hình ảnh của họ một cách miễn phí, trái với ý muốn của họ để thu lợi nhuận hoặc lừa dối. Vì vậy, chúng tôi coi đây là một phần mở rộng của quyền đạo đức."
A hand holding a phone that's receiving a call from an unknown caller.
People are advised to only answer phone calls from contacts they recognise. Source: Getty / Rafael Abdrakhmanov/iStockphoto
Cả video và âm thanh deepfake cũng có thể được sử dụng cho nhiều mục đích khác ngoài việc chỉ gian lận tài chính và lao động giá rẻ. Ông Kaisar giải thích có một số cách độc hại khác mà công nghệ này có thể được triển khai.

Ông nói: “Nó có thể được sử dụng để phỉ báng. Ví dụ, nó có thể được sử dụng để truyền bá tin đồn… Chúng tôi cũng thấy rằng nó cũng đã được sử dụng trong bối cảnh chính trị nữa”. Ông Kaisar cho một ví dụ nổi tiếng mới đây nhất là một video deepfake giả tổng thống Ukraine Volodymyr Zelenskyy yêu cầu binh lính của mình hạ vũ khí và đầu hàng Nga.

Ông nói: “Có thể thực sự gây ra tình trạng nội chiến hoặc căng thẳng chính trị giữa các quốc gia”.

Làm thế nào mọi người có thể tự bảo vệ mình?

Ông Kaisar cảnh báo rằng mọi người nên cẩn thận với các loại nội dung họ chia sẻ trên mạng, đặc biệt là khi chia sẻ nội dung cá nhân như video hình ảnh và ghi âm giọng nói của mình, nhằm giảm bớt nguy cơ trở thành nạn nhân của việc nhân bản giọng nói.

Còn giáo sư Whitty kêu gọi mọi người hãy luôn cảnh giác - và giảm tối thiểu thời gian nói chuyện với ai đó đáng nghi ngờ hoặc chưa quen biết.

“Nếu bạn có một thành viên trong gia đình hoặc ai đó gọi cho bạn vì điều gì đó khẩn cấp, tốt hơn hết bạn nên dừng lại, hãy tạm dừng và… sau đó gọi lại cho người đó hoặc liên hệ với họ theo cách khác, chỉ để bảo đảm rằng đúng là họ đang nói chuyện với bạn", ông Whitty nói.

Bà nói thêm, nếu có thể, mọi người chỉ nên trả lời các cuộc gọi điện thoại từ những mối liên hệ mà họ biết và nhận diện.

"Nếu đó là một số bạn không biết, hãy bỏ qua nó hoàn toàn."

 


Share
Published 28 May 2024 5:24pm
By Gavin Butler
Presented by Lê Tâm
Source: SBS


Share this with family and friends