OpenAI ra mắt công cụ giả giọng nói của bất kỳ ai

Đăng ngày: 03/04/2024

OpenAI vừa giới thiệu công cụ Voice Engine, có khả năng giả giọng nói từ đoạn ghi âm 15 giây. Công nghệ này có thể tạo giọng nói dựa trên đoạn ghi âm ngắn và đọc văn bản, thậm chí bằng nhiều ngôn ngữ. Tuy nhiên, OpenAI cảnh báo về nguy cơ tiềm tàng khi sử dụng công nghệ này, đặc biệt trong bối cảnh bầu cử tổng thống Mỹ. Pindrop Security cũng phát hiện deepfake giọng nói có thể gây ảnh hưởng lớn đến kết quả bầu cử.

OpenAI ra mắt một công cụ giả giọng nói của bất kỳ ai

Vào ngày 29/3, OpenAI đã trình diễn phần mềm Voice Engine sử dụng trí tuệ nhân tạo để tạo ra giọng nói dựa trên đoạn ghi âm ngắn và có thể đọc văn bản. Nó cũng có khả năng tái hiện bằng ngôn ngữ nước ngoài, thậm chí khi đoạn ghi âm mẫu chỉ sử dụng tiếng Anh.

Voice Engine đã được OpenAI phát triển từ năm 2022 và được thử nghiệm cùng một nhóm khách hàng vào cuối năm 2023. Trong quá trình thử nghiệm, phần mềm đã thể hiện khả năng hỗ trợ đọc, dịch nội dung giữa các ngôn ngữ khác nhau và tạo tiếng nói cho những người mất khả năng nói chuyện.

Tuy nhiên, OpenAI cũng nhấn mạnh về nguy cơ tiềm tàng của công nghệ bắt chước giọng nói, đặc biệt là trong bối cảnh của năm bầu cử tổng thống Mỹ, và đó là lý do mà họ quyết định hạn chế quyền truy cập và chưa mở rộng rộng rãi công nghệ này.

Theo công ty sở hữu ChatGPT, việc công bố Voice Engine nhằm khuyến khích giới quản lý và công chúng tăng cường cảnh giác với những trò lừa đảo sử dụng trí tuệ nhân tạo. Nhà phát triển cảnh báo rằng tội phạm có thể sử dụng phần mềm giả giọng để đánh cắp thông tin cá nhân hoặc vượt qua những hệ thống an ninh tại các cơ sở ngân hàng.

“Điều quan trọng là mọi người hiểu rõ hướng đi của công nghệ, bất kể chúng tôi có phát hành nó rộng rãi hay không,” OpenAI cho biết.

Công nghệ giả giọng bằng trí tuệ nhân tạo đã thu hút sự chú ý sau khi một đoạn ghi âm bắt chước giọng của Tổng thống Mỹ Joe Biden kêu gọi người dân “không tham gia bầu cử sơ bộ của đảng Dân chủ ở New Hampshire”, được lan truyền trên mạng xã hội vào tháng 1.

Pindrop Security, một công ty chuyên phát hiện lừa đảo qua giọng nói, sau đó phân tích bản ghi và kết luận rằng đó là deepfake sử dụng công nghệ của ElevenLabs – một startup phát triển phần mềm trí tuệ nhân tạo tạo lập giọng nói bằng hơn 20 ngôn ngữ.

Theo tạp chí Fortune, deepfake giọng của ông Biden đã khiến nhiều chuyên gia và quan chức phụ trách bầu cử Mỹ lo ngại, gọi đó là “nỗ lực can thiệp bầu cử được hỗ trợ bởi trí tuệ nhân tạo”. Một số đánh giá còn cho thấy rằng việc lan truyền deepfake âm thanh không chỉ dễ dàng, mà còn thể hiện nguy cơ kẻ xấu sử dụng công nghệ này để ngăn cử tri đi bỏ phiếu và tác động đến kết quả bầu cử.

5/5 - (1 bình chọn)

Chia sẻ bài viết:

Facebook
Twitter
LinkedIn
Email

Mỗi ngày, chúng tôi học hỏi một điều mới về Marketing và chia sẻ cho bạn, để ngày mai của bạn trở nên thành công rực rỡ hơn ngày hôm qua.

Picture of MIC Creative

MIC Creative

Xem hồ sơ
Marketing

Bài viết liên quan