Những kẻ lừa đảo sử dụng công nghệ mới một cách tinh vi để khủng bố gia đình ở California

Một gia đình ở California đã phải chịu đựng một sự việc kinh hoàng khi những kẻ lừa đảo sử dụng trí tuệ nhân tạo đánh lừa họ tin rằng con trai họ đã gặp một tai nạn nghiêm trọng.

Một ngày bình thường, Amy Trapp đang làm việc tại trường Mill Valley gần San Francisco thì nhận được một cuộc gọi từ một số lạ và nhấc máy thì phát ra một giọng nói mà cô tin là của con trai mình, theo báo cáo từ tờ San Francisco ghi chép lại.

Trapp nói với mọi người: “Đó là giọng con trai tôi đang khóc trong điện thoại, nói với tôi rằng: ‘Mẹ ơi, con vừa bị tai nạn xe hơi.

Người mẹ cho biết ngay lập tức cô cảm thấy hoảng sợ và nhìn thấy con trai mình đang học đại học ở xa bờ biển miền trung California, nằm dưới gầm ô tô hoặc bên vệ đường trên vũng máu của chính mình. Thay vào đó, một giọng nói khác vang lên trên điện thoại và nói với Trapp rằng anh ta là cảnh sát và con trai cô, Will, đã làm một phụ nữ mang thai bị thương trong vụ va chạm và bị đưa vào tù.

Một hacker trí tuệ nhân tạo đằng sau máy tính. (Fox News)

Trapp cho biết cô tin vào câu chuyện vì giọng nói ở đầu dây bên kia không thể nhầm lẫn là của con trai cô. Cô cũng đặt niềm tin vào một người đàn ông khác tự xưng là người bào chữa cho Will, người này đã yêu cầu cô rút hơn 15.500 USD để trang trải chi phí bảo lãnh cho Will.

Vài giờ sau, chồng của Trapp đã trực tiếp gọi cảnh sát và cặp đôi phát hiện ra sự việc này thực chất là một trò lừa đảo. Những người đàn ông này đã lừa người mẹ đang lo lắng bằng cách sử dụng công nghệ AI tinh vi để tái tạo giọng nói của Will. Will đang học trong phòng suốt thời gian đó mà không hề hay biết về bi kịch đang diễn ra với bố mẹ mình.

Christopher Alexander, giám đốc phân tích của Pioneer Development Group, nói với Fox News Digital: “Những trò lừa đảo như thế này đang gia tăng mỗi ngày khi công nghệ deepfake được cải thiện và trở nên dễ truy cập hơn”. “Những vụ lừa đảo như thế này thành công vì nạn nhân bị căng thẳng tột độ với hy vọng rằng những điểm không hoàn hảo trong bản deepfake sẽ không bị phát hiện.”

Trong khi các trò lừa đảo qua điện thoại đã tồn tại trong nhiều năm, các trò lừa đảo bằng AI có nguy cơ trở thành một vấn đề ngày càng gia tăng khiến nạn nhân ít có khả năng phát hiện ra mình đang bị lừa.

Aiden Buzzetti, chủ tịch của Dự án Bull Moose, nói với Fox News Digital: “Các cuộc gọi lừa đảo đã luôn là cái gai đối với người Mỹ trong nhiều năm và không ai ngờ rằng mình lại là nạn nhân của nó”. “Sự phổ biến của việc sao chép giọng nói AI sẽ khiến ngay cả những người dùng am hiểu công nghệ nhất cũng dễ bị lừa dối, đặc biệt là khi chạm đến bản năng con người .

“Những tên tội phạm đằng sau những cuộc gọi tự động này đã tạo ra những tình huống nguy hiểm để khiến cha mẹ và ông bà bị thiển cận, khiến họ trở nên trầm trọng hơn về mặt cảm xúc và điều này đã ngăn cản họ suy nghĩ sáng suốt. Chúng ta cần tiếp tục khuyến khích chính phủ liên bang và các cơ quan tiểu bang trấn áp các cuộc gọi tự động bằng cách truy tố các dịch vụ cho phép dành cho những người gọi spam nước ngoài.”

Jake Denton, một cộng tác viên nghiên cứu tại Heritage, cho biết: “Chúng tôi đang chứng kiến ​​sự bùng nổ đáng báo động trong các vụ lừa đảo bằng giọng nói do Al, hiện đang gây ra mối đe dọa ngày càng lớn cho các gia đình. Bọn tội phạm và những kẻ lừa đảo đang lợi dụng những tiến bộ trong thế hệ Al để mạo danh các cá nhân với độ chính xác đáng sợ”. Trung tâm Chính sách Công nghệ của Foundation, nói với Fox News Digital.

“Những trò lừa đảo này có xu hướng đánh vào cảm xúc của những người không nghi ngờ, thường bắt chước giọng nói của một thành viên trong gia đình đang cầu xin sự giúp đỡ khẩn cấp. Để giữ an toàn trước những trò lừa đảo này, các gia đình nên thực hiện các biện pháp chủ động ngay bây giờ để tự bảo vệ mình.”

Trong trường hợp của Trapp, người mẹ lo lắng kể lại rằng bà “không nghi ngờ gì” và nghĩ mình đang nói chuyện với con trai mình, điều này dẫn đến một lượng adrenaline dâng cao làm lu mờ khả năng phán đoán của bà khi người được cho là cảnh sát đến gọi điện.

Vài phút sau, khi một người đàn ông tự nhận mình là luật sư công tên là David Bell gọi điện, anh ta nói với người mẹ đang lo lắng rằng anh ta có thể thương lượng số tiền bảo lãnh cho con trai bà từ 50.000 USD đến 15.000 USD và hỏi liệu cô có thể nhận được tiền nhanh chóng hay không thì Trapp đồng ý.

“Ông ta nói, ‘Đừng nói với [ngân hàng] tại sao bạn lại nhận được tiền vì bạn không muốn làm hoen ố danh tiếng của con trai mình”, Trapp cho biết và lưu ý rằng trong tâm trạng của mình lúc đó cô ấy “sẽ làm bất cứ điều gì” mà ông ta nói.”

Sau đó, Trapp lên xe đón chồng, người đã bị thuyết phục rằng vợ mình đã nói chuyện với con trai họ. Cả hai cùng đến ngân hàng và rút 15.500 USD.

Người cha là Andy Trapp cho biết: “Tôi tin chuyện này vì giọng nói đó được mẹ của cậu ấy nhận ra, người mà cậu ấy nói chuyện vài lần một tuần”. “Tôi chưa bao giờ nghĩ rằng mình sẽ rơi vào bất cứ điều gì như thế.”

Khi về nhà, người được cho là luật sư nói với cặp vợ chồng rằng một người chuyển phát nhanh sẽ được cử đến nhận tiền từ nhà họ, điều này cuối cùng đã gióng lên hồi chuông cảnh báo trong đầu cả hai vợ chồng.

“Điều đó nghe có vẻ hoàn toàn không đúng,” Andy Trapp nói.

Đó là thời điểm tình hình trở nên quá sức chịu đựng đối với Amy Trapp, thông tin cho biết cô đã khuỵu gối trước cửa nhà của gia đình.

“Con trai tôi đâu? Con trai tôi đâu?” cô ấy hét lên.

Andy Trapp sau đó đã gọi đến đồn cảnh sát địa phương nơi xảy ra vụ việc. Người cha lo lắng này được cho biết không có hồ sơ nào về vụ tai nạn. Sau đó, cặp vợ chồng cuối cùng đã gọi điện cho con trai họ đang học đại học và cậu bé hoàn toàn không biết gì về sự việc.

“Yo, có chuyện gì thế?” Will bình tĩnh trả lời, theo lời Trapp kể.

Theo báo cáo, các nỗ lực gọi điện lừa đảo như cuộc gọi cho Trapp là bất hợp pháp nhưng thường khó điều tra hoặc truy tố, đôi khi vì các trò gian lận bắt nguồn từ nước ngoài.

Samuel Mangold-Lenett, biên tập viên của The Federalist, tin rằng có thể làm được nhiều việc hơn nữa để bảo vệ các nạn nhân tiềm năng.

Mangold-Lenett nói với Fox News Digital: “Lừa đảo vẫn là một vấn đề nghiêm trọng. Nhưng giờ đây AI cho phép kẻ xấu sử dụng công nghệ nhân bản giọng nói tinh vi, mọi người có điện thoại di động đều là mục tiêu tiềm năng”. “Cần phải làm nhiều việc hơn nữa để buộc những người thực hiện những vụ lừa đảo này phải chịu trách nhiệm. Các luật đã có trên sổ sách có thể được áp dụng cho những tình huống như thế này, nhưng có lẽ nên thực hiện các quy định cụ thể hơn.”

Phil Siegel, người sáng lập Trung tâm Mô phỏng ứng phó mối đe dọa và chuẩn bị nâng cao (CAPTRS), nói với Fox News Digital rằng không rõ tần suất AI được sử dụng trong những tội ác như vậy, mặc dù ông cảnh báo những sự cố như vậy có thể sẽ gia tăng trong những năm tới.

Siegel nói: “Nhiều người cao tuổi và người lớn tuổi sẽ không dành thời gian để tìm hiểu AI vì họ sẽ không sử dụng nó, điều này sẽ khiến họ dễ trở thành mục tiêu chín muồi cho những trò lừa đảo như thế này”. “Cho dù đó là việc phải ngồi tù, tai nạn ô tô, cần tiền sửa nhà hay nhiều vụ lừa đảo khác, điều này sẽ xảy ra thường xuyên hơn trong vài năm tới.”

Các chuyên gia cho biết các vụ lừa đảo AI thường nhắm vào người già. (Cyberguy.com)

Siegel cho biết mọi người có thể tự bảo vệ mình bằng cách thận trọng, đặc biệt là khi giao dịch bằng tiền.

Siegel nói: “Bài học là hãy luôn gọi lại cho người đó trước khi làm bất cứ điều gì. “Đừng bao giờ đưa cho ai đó mà bạn không biết hoặc chưa tiếp xúc bất kỳ khoản tiền mặt, tiền điện tử, tiền Venmo hoặc tiền điện tử nào. Và tất nhiên, nếu có liên quan đến cơ quan thực thi pháp luật, trước tiên hãy kiểm tra với họ.”

Will Trapp nói với San Francisco Chronicle rằng anh không biết làm thế nào những kẻ lừa đảo có thể sao chép giọng nói của anh, vì các tài khoản mạng xã hội của anh là riêng tư, mặc dù đôi khi anh vẫn hát và sáng tác nhạc để đăng trực tuyến.

“Thật khó để tưởng tượng nó có thể được sử dụng như thế nào vì nó không giống giọng nói của tôi,” Will nói. “Nó thực sự đáng sợ.”

Nguồn: foxnews.com

Vina Aspire là nhà cung cấp các giải pháp, dịch vụ CNTT, An ninh mạng, bảo mật & an toàn thông tin tại Việt Nam. Đội ngũ của Vina Aspire gồm những chuyên gia, cộng tác viên giỏi, có trình độ, kinh nghiệm và uy tín cùng các nhà đầu tư, đối tác lớn trong và ngoài nước chung tay xây dựng.

Các Doanh nghiệp, tổ chức có nhu cầu liên hệ Công ty Vina Aspire theo thông tin sau:

Email: info@vina-aspire.com | Tel: +84 944 004 666 | Fax: +84 28 3535 0668 | Website: www.vina-aspire.com

Vina Aspire – Vững bảo mật, trọn niềm tin


Bài viết liên quan

About Us

Learn More

Vina Aspire is a leading Cyber Security & IT solution and service provider in Vietnam. Vina Aspire is built up by our excellent experts, collaborators with high-qualification and experiences and our international investors and partners. We have intellectual, ambitious people who are putting great effort to provide high quality products and services as well as creating values for customers and society.

may ao thun Kem sữa chua May o thun May o thun đồng phục Định cư Canada Dịch vụ kế ton trọn gi sản xuất đồ bộ
Translate »