Thực tế, "Neural Engine" đã được Apple giới thiệu từ chip A11 trên iPhone X, giúp thiết bị khả năng xử lý hàng nghìn tỷ phép tính mỗi giây nhằm thực hiện các thuật toán trí thông minh nhân tạo (AI) như phân loại ảnh theo chủ đề, nhận diện chủ thể, tự động học hỏi theo thời gian thực... Song, đại diện Apple cho biết, phải đến thế hệ chip A13 Bionic, công nghệ Neural Engine mới được áp dụng để xử lý ảnh.
Khi người dùng nhấn nút chụp, máy sẽ thực hiện tổng cộng 9 bức hình cùng lúc, gồm 1 tấm chính và 8 tấm phụ. Các tấm phụ được chụp nhanh ngay trước khi người dùng bấm nút và chia thành hai lần. Bộ xử lý "Neural Engine" sẽ tiến hành phân tích và lọc 24 triệu pixel thu được từ các tấm ảnh này, chọn ra các điểm ảnh tốt nhất để cho ra tấm ảnh cuối cùng.
Trước đó, Apple đã ra mắt ba phiên bản iPhone mới. iPhone 11 bản tiêu chuẩn là mẫu thay thế iPhone XR với màn hình 6,1 inch nhưng được bổ sung camera kép. Trong khi đó, bộ đôi iPhone 11 Pro và 11 Pro Max được trang bị màn hình OLED và có kích cỡ lần lượt là 5,8 inch và 6,5 inch. Điểm nhấn ở bộ đôi này là được trang bị cụm 3 camera ở mặt lưng.