Cụm camera thực ra là hệ thống gồm ba thành phần: cảm biến ToF hoặc Structure Light, máy bắn laser và cuối cùng là phần mềm. Phương thức hoạt động rất đơn giản, ánh sáng laser sẽ chiếu từ điện thoại tới bề mặt hoặc đối tượng phía trước nó. Dựa trên thời gian mà tia sáng phản hồi quay trở lại, hệ thống sẽ tính toán ra khoảng cách dài ngắn khác nhau của môi trường phía trước, từ đó tạo nên một bản đồ chiều sâu để nhận biết cái gì ở gần, cái gì ở xa.
Apple đã chuẩn bị cho điều này từ lâu
Theo nguồn tin mới xác nhận với Fast Company, đội kỹ sư iPhone đã làm việc với cảm biến ToF ở mặt lưng điện thoại ít nhất từ hai năm trước. Apple quyết định không tung ra nó sớm mà chờ đến năm nay, một thế hệ iPhone đánh dấu bước nhảy vọt của hãng kể từ iPhone X. Bên cạnh thiết kế thay đổi, hỗ trợ 5G, bổ sung thêm cảm biến 3D vào hệ thống camera cũng là một điểm nhấn khác của Apple, nhằm nâng cao trải nghiệm chụp ảnh, quay phim và đặc biệt là tính năng
Rất nhiều điện thoại Android đã có cảm biến 3D ToF trước iPhone (ảnh: Yole Dévelopment)
Dự kiến, Apple sẽ mua cảm biến ToF từ Sony, hãng lớn nhất hiện nay sản xuất loại cảm biến này, máy chiếu tia laser từ công ty Mỹ Lumentum. Lumentum cũng là hãng đang cung cấp linh kiện laser cho hệ thống True Depth trên các iPhone, thực hiện chức năng nhận diện khuôn mặt 3D Face ID. Cần phải lưu ý, cụm camera ở mặt trước iPhone hiện đang dùng công nghệ Structure Light, còn cụm camera sắp tới sử dụng time-of-flight (ToF), hai giải pháp đo khoảng cách vật thể khác nhau.
Apple không phải hãng đầu tiên trang bị camera đo chiều sâu môi trường trên smartphone. Nhiều hãng khác như Oppo, Huawei, Samsung, Sony đã đi trước. Trên thị trường hiện nay, có cả chục mẫu Android khác nhau có công nghệ này. Tuy nhiên, cái mà người ta kỳ vọng ở Apple là với thời gian chuẩn bị lâu dài khoảng hai năm, công ty có thể đem tới trải nghiệm mới mẻ, khác biệt. Bản kế nhiệm của iPhone 11 Pro Max và 11 Pro có thể là những chiếc iPhone đầu tiên hiện thực hóa điều đó.
Nâng tầm trải nghiệm thực tế tăng cường
Cảm biến ToF sẽ mở khóa cho các ứng dụng thực tế tăng cường trên iPhone
Bổ sung mới sẽ mở khóa tiềm năng của các ứng dụng thực tế tăng cường (AR) trên iPhone. Apple đã phát hành bộ khung ARKit cho các lập trình viên từ rất lâu, nhưng người dùng vẫn chưa bị lôi cuốn bởi trải nghiệm này. Theo Phó chủ tịch của Lumentum: "khi bạn sử dụng ứng dụng AR mà không đi kèm thông tin chiều sâu, nó sẽ rất kỳ quặc và không thể khai thác hết được tiềm năng vốn có". Bây giờ với sự phổ biến của cảm biến 3D, ARKit và ARCore sẽ có đất dụng võ.
Hãy hình dung mọi người có thể chia sẻ hình ảnh bản thân dưới dạng ba chiều, sau đó tương tác với nó ở trong các bối cảnh khác nhau, gán ghép nó với các loài vật hay các nhân vật nổi tiếng. Điều này vẫn có thể thực hiện được từ trước với thuật toán đơn thuần, nhưng khi có phần cứng chuyên biệt như cảm biến 3D, thông tin về chiều sâu môi trường sẽ đầy đủ hơn, dẫn đến thành quả trông sống động, thực tế hơn, bớt giảBổ sung thêm thông tin về môi trường giúp các hiệu ứng kỹ thuật số trở nên thực tế hơn
Một hình ảnh ba chiều của một ai đó hiện lên trên bàn ở ngoài đời thực, trò chuyện hay tương tác với những người xung quanh. Những cuộc họp trực tuyến sẽ chiếu lên phần đầu của từng người với các cử chỉ nhăn mặt, nheo mắt, mấp máy môi,... y như thật. Không còn chỉ là ảnh 2D trên màn hình. Hay khi Sony giới thiệu tính năng 3D Creator trên Xperia XZ1, hãng có nói về tương lai mà chúng ta sẽ dùng avatar trên mạng xã hội chính là ảnh 3D phần đầu hoặc toàn thân của mình ở ngoài đời.
Tăng hiệu quả xóa phông, đo vật thể
Hiện nay, Samsung đang mua cảm biến ToF từ Sony để trang bị cho dòng flagship Galaxy S và Note. Với công nghệ này, hãng Hàn Quốc mang đến hai tính năng Live Focus và Quick Measure. Live Focus giúp làm mờ phông nền khi chụp ảnh và quay video, khiến cho chủ thể nổi bật lên trên hậu cảnh. Còn Quick Measure cho phép bạn đo chiều dài, chiều rộng và chiều sâu của vật thể khi nằm gọn trong khung hình. Đó chắc chắn là hai tính năng rất cơ bản mà Apple có thể học tập.
Theo vnreview