꼭 사용해야 할 5가지 Google Pixel 카메라 소프트웨어 기능
Google Pixel 휴대전화에는 인상적인 카메라 기능 모음이 포함되어 있습니다. 하지만 어떻게 작동하나요?
카메라는 출시 이후 Google Pixel 휴대폰 제품군의 초석으로 남아 있습니다. Google은 수집한 방대한 양의 데이터를 활용하여 모바일 사진의 경계를 넓힐 수 있었습니다. 소프트웨어를 통해 이 회사는 일반적으로 다른 OEM이 후면에 카메라 2개, 3개, 경우에 따라 4개를 번들로 제공하는 고급 기능을 복제할 수 있었습니다.
그렇다면 특별한 하드웨어 없이 이러한 카메라 모드는 어떻게 작동합니까? 여기에서는 Google Pixel의 최고의 카메라 기능을 설명합니다.
1. HDR+
HDR+는 오늘날 대부분의 스마트폰에서 볼 수 있는 기존 HDR 모드를 Google이 채택한 것입니다. Google이 개념에 접근하는 방식을 자세히 알아보기 전에 후자를 이해하는 것이 중요합니다.
HDR 사진에서는 휴대폰이 한 장의 사진을 찍는 대신 다양한 노출 수준에서 여러 장의 사진을 찍습니다. 이를 통해 카메라는 장면의 더 많은 데이터를 수집하고 하이라이트와 그림자를 보다 정확하게 렌더링하는 결과를 생성할 수 있습니다. 복잡한 알고리즘을 통해 서로 다른 프레임을 하나로 결합함으로써 이를 수행합니다.
예를 들어, 밝은 배경 앞에 서 있는 누군가의 이미지를 캡처하려고 하는데 결과적으로 친구가 완전히 그림자 속에 있거나 배경이 날아가는 시나리오가 있습니다. HDR이 등장하여 프레임의 가장 밝은 빛과 가장 어두운 어둠의 균형을 맞추는 곳입니다.
휴대폰에서는 이 모든 프로세스가 자동화되어 있기 때문에 알고리즘을 교육할 엄청난 데이터 세트가 없는 회사에게는 약간 까다로울 수 있습니다. 다른 단점도 있습니다. 전문 카메라에 비해 휴대폰 센서는 훨씬 작기 때문에 너무 오랫동안 열려 있으면 소음이 발생합니다.
Google의 HDR+는 이 모든 것을 해결하려고 시도합니다. 여기에는 여러 장의 사진을 캡처하고 나중에 처리하는 것도 포함됩니다. 그러나 나머지 휴대폰과 달리 Google 휴대폰은 노출이 부족한 여러 장의 사진을 촬영하고 라벨이 붙은 사진의 대규모 데이터 세트에서 훈련된 알고리즘을 통해 이를 병합합니다.
HDR+는 기존 시스템처럼 광범위한 노출을 거치지 않기 때문에 사진과 노이즈의 모션 블러도 훨씬 적습니다. 이러한 모든 계산으로 인해 휴대폰 속도가 느려지지 않도록 Google은 Pixel 2 시리즈의 Pixel Visual Core라는 전용 독점 칩을 통합하기 시작했습니다.
2. 야간 시력
아마도 Google 소프트웨어 팀이 개발한 가장 인상적인 카메라 기술은 Night Sight라는 제목일 것입니다. 이 기능을 활성화하면 빛이 거의 없는 거의 어두운 장면을 촬영하고 마술처럼 조명이 밝은 사진을 생성할 수 있습니다.
1세대 Google Pixel에서도 사용할 수 있는 Night Sight는 회사의 HDR+ 기술을 기반으로 구축되었습니다. Night Sight가 켜진 상태에서 셔터 버튼을 누를 때마다 전화기는 다양한 노출 설정에서 수많은 사진을 잘라냅니다.
그런 다음 처리된 정보는 그림자, 하이라이트 및 실제 빛의 양과 같은 장면의 다양한 세부 사항을 이해하기 위한 알고리즘으로 전달됩니다. 이러한 학습을 통해 카메라 앱은 그레인을 증폭시키지 않고 훨씬 더 밝은 사진을 연결합니다.
3. 슈퍼 해상도 줌
디지털 줌은 Google이 다른 제품과 같은 전용 하드웨어 대신 소프트웨어를 사용하여 해결하려고 시도한 모바일 사진의 또 다른 중요한 단점입니다.
Super Res Zoom이라고 불리는 이 기능은 어떠한 디테일도 손상시키지 않으면서 최대 2배의 디지털 줌을 보장합니다. Google이 HDR+ 및 Night Sight에 사용하는 것과 동일한 버스트 사진 기술을 사용합니다. 하지만 여기서는 다양한 노출이 가능하지 않습니다.
Super Res Zoom의 경우 카메라는 다양한 각도에서 여러 장의 사진을 캡처합니다. 그렇다면 물리적으로 움직여야 합니까? 별말씀을요. 확대된 사진의 경우, 약간의 손 움직임만으로도 다른 각도에 충분합니다. 따라서 Google은 본질적으로 더 많은 정보를 축적하기 위해 손 떨림을 사용하고 있습니다.
Google은 손이 너무 안정적이거나 휴대전화가 삼각대에 장착되어 있는 경우에 대한 솔루션을 제공합니다. 이러한 시나리오에서는 렌즈가 실제로 약간 흔들리면서 손의 움직임을 재현하는데 이는 정말 놀랍습니다.
전화기는 모든 데이터를 활용하여 일반적으로 디지털 줌으로 생성할 수 있는 훨씬 더 세부적인 사진을 캡처합니다.
4. 인물 모드
대부분의 제조업체에는 깊이 감지를 위한 추가 카메라가 포함되어 있지만 Google은 소프트웨어를 통해 인물 사진 모드를 구현합니다. 이를 위해 카메라 앱은 HDR+로 일반 사진을 찍는 것부터 시작합니다. 그런 다음 Google의 훈련된 신경망의 도움으로 전화기는 주요 주제를 파악하려고 시도합니다. 그것은 사람일 수도 있고, 개일 수도 있고, 다른 무엇이든 될 수도 있습니다.
가장자리가 엉망이 되지 않도록 Google의 세로 모드는 듀얼 픽셀이라는 기술의 이점을 활용합니다. 일반인의 관점에서 이는 휴대폰이 캡처하는 모든 픽셀이 기술적으로 한 쌍의 픽셀임을 의미합니다. 따라서 더 나은 초점과 함께 전화기에는 배경과 전경 사이의 거리를 평가하기 위한 두 가지 관점이 있습니다.
Pixel 휴대폰에는 깊이를 계산하는 센서가 여러 개 없기 때문에 이는 매우 중요합니다. 마지막으로, 휴대폰은 마무리된 피사체 마스크를 제외한 모든 것을 흐리게 합니다.
휴대폰에서 이 기능을 사용하는 방법이 궁금하십니까? 다음은 모든 Android 휴대폰에서 인물 사진 모드를 사용하는 쉬운 가이드입니다.
5. 탑샷
Google은 Pixel 3에 Top Shot이라는 새롭고 영리한 카메라 기능을 도입했습니다. 이름에서 알 수 있듯이 클릭한 것보다 더 나은 샷을 선택할 수 있습니다.
이를 위해 카메라는 셔터 키를 누르기 전후 1.5초 동안 최대 90장의 이미지를 촬영합니다. 그리고 모션 블러나 눈을 감은 등의 결함을 감지하면 자동으로 대체 사진을 추천합니다. 수동으로 로트에서 하나를 선택할 수도 있지만 그 중 두 개만 고해상도입니다.
Top Shot은 Motion Photos의 확장이므로 카메라 성능에 영향을 주지 않습니다.
스마트폰 사진을 향상시키는 간단한 요령
Google 소프트웨어가 제공하는 기능은 많지만 몇 가지 복잡한 시나리오에는 여전히 추가 노력이 필요합니다. 이러한 사진을 마스터하려면 스마트폰 사진 촬영 기술을 크게 향상시킬 수 있는 다음과 같은 간단한 요령을 익히는 것이 좋습니다.