Apple đã chứng tỏ một phát minh đột phá có thể hỗ trợ việc chạy trí tuệ nhân tạo trên iPhone với bộ nhớ RAM thấp hơn đáng kể so với các mẫu smartphone Android cao cấp. Kỹ thuật này liên quan đến việc tối ưu hóa mô hình ngôn ngữ lớn (LLM) phức tạp bằng cách sử dụng tính năng tối ưu bộ nhớ.
Khi Apple tích hợp Trí tuệ nhân tạo tiên tiến vào iPhone, điều đó sẽ đánh dấu một bước ngoặt quan trọng khác dựa vào hai bài báo nghiên cứu mới được giới thiệu trong tháng này. Nghiên cứu có tiêu đề "LLM trong tích tắc: Xây dựng mô hình ngôn ngữ lớn hiệu quả với bộ nhớ hạn chế" được công bố vào ngày 12/12 có khả năng thay đổi trải nghiệm của iPhone do nó có khả năng truy cập các hệ thống Trí tuệ nhân tạo phức tạp trên iPhone và iPad.
Bài nghiên cứu tập trung vào việc chạy hiệu quả các mô hình LLM trên thiết bị có hạn chế dung lượng DRAM. DRAM là một loại bộ nhớ truy cập ngẫu nhiên động được sử dụng trong máy tính cá nhân và nổi tiếng với tốc độ cao, mật độ lớn, giá cả phải chăng và tiêu thụ điện năng thấp hơn.
Trong quá trình nghiên cứu, hãng Apple đã đề cập đến khó khăn trong việc vượt qua dung lượng DRAM có sẵn để chạy LLM. Đồng thời, họ lưu trữ các tham số mô hình trong bộ nhớ flash và chạy chúng vào DRAM khi cần thiết. Để thực hiện điều này, Apple đã xem xét các phương pháp giảm truyền dữ liệu trong bộ nhớ một cách hiệu quả. Kết quả báo cáo cho thấy, hiệu suất của mô hình Apple đã tăng gấp 4-5 lần và 20-25 lần trên CPU và GPU tương ứng so với các phương pháp truyền thống.
Sự sáng tạo của Apple đã giúp thiết lập và chạy mô hình LLM hiệu quả trên iPhone với dung lượng RAM thấp.
Một nghiên cứu mới của Apple đã phát hiện ra một phương pháp sáng tạo để triển khai LLM (học sâu siêu cấp) hiệu quả trên các thiết bị có phần cứng hạn chế. Điều này mở ra một hướng đi mới trong lĩnh vực nghiên cứu về trải nghiệm người dùng trên các thiết bị và thế hệ tiếp theo.
Từ khía cạnh người dùng, việc phát hiện ra tính hiệu quả của suy luận LLM trên bộ nhớ hạn chế có thể mang lại nhiều lợi ích quan trọng cho cả người dùng Apple và iPhone. Với việc sử dụng các LLM mạnh mẽ trên các thiết bị có RAM hạn chế như iPhone và iPad, người dùng sẽ có cơ hội trải nghiệm các tính năng thông minh AI cải tiến như xử lý ngôn ngữ tốt hơn, trợ lý giọng nói phức tạp và tăng cường quyền riêng tư. Điều này còn giúp giảm tải lưu lượng dữ liệu internet và quan trọng hơn, cho phép cả những người dùng sở hữu các mẫu iPhone cũ như iPhone 11 hoặc 12 truy cập và tận hưởng lợi ích của AI tiên tiến.