banner
홈페이지 / 블로그 / 프라이버시 폭로
블로그

프라이버시 폭로

Jun 18, 2023Jun 18, 2023

데이터 중심 의사 결정 시대에 기업은 기계 학습(ML)의 힘을 활용하여 귀중한 통찰력을 얻고, 운영 효율성을 확보하며, 경쟁 우위를 강화하고 있습니다.

최근 생성적 인공 지능(AI)의 발전으로 인해 AI/ML의 힘에 대한 전례 없는 인식이 높아졌지만 개인 정보 보호 및 보안에 대한 근본적인 필요성도 밝혀졌습니다. IAPP, Brookings, Gartner의 최근 AI TRiSM 프레임워크와 같은 그룹은 위험 프로필을 높이지 않고 AI를 통해 고유한 비즈니스 성과를 달성하려는 조직을 위한 주요 고려 사항을 설명했습니다.

이러한 필수 사항의 최전선에는 ML 모델 보안이 있습니다. 이 핵심 영역을 직접적으로 다루면서 개인 정보 보호 기계 학습은 점점 더 중요해지는 이 분야에서 사용자가 ML 애플리케이션의 잠재력을 최대한 활용할 수 있도록 보장하는 경로로 등장했습니다.

기계 학습 모델은 데이터를 처리하여 의미 있는 통찰력을 생성하고 중요한 비즈니스 결정을 알리는 알고리즘입니다. ML의 놀라운 점은 지속적으로 학습하고 개선하는 능력입니다. 모델이 새롭고 서로 다른 데이터세트로 학습되면 시간이 지남에 따라 더욱 스마트해지며 이전에는 접근할 수 없었던 정확하고 가치 있는 통찰력을 얻게 됩니다. 그런 다음 이러한 모델을 사용하여 데이터에서 통찰력을 생성할 수 있으며 이를 모델 평가 또는 추론이라고 합니다.

최상의 결과를 제공하려면 모델이 다양하고 풍부한 데이터 소스를 통해 학습 및/또는 활용되어야 합니다. 이러한 데이터 소스에 민감하거나 독점적인 정보가 포함되어 있는 경우 이를 기계 학습 모델 교육이나 평가/추론에 사용하면 심각한 개인 정보 보호 및 보안 문제가 발생합니다. 모델 자체의 취약성은 이를 사용하는 기업의 책임이 됩니다. 즉, 비즈니스를 향상시키고 실행 가능한 통찰력을 제공하겠다고 약속한 이 기능이 이제 조직의 위험 프로필을 증가시키고 있음을 의미합니다.

이 문제는 오늘날 ML의 광범위한 사용을 방해하는 주요 장벽 중 하나입니다. 기업은 ML의 이점과 이익을 보호하고 끊임없이 진화하는 개인 정보 보호 및 규제 요구 사항을 준수해야 하는 필요성 사이의 균형을 유지해야 하는 과제에 직면해 있습니다.

ML 모델의 취약점은 일반적으로 모델 반전과 모델 스푸핑이라는 두 가지 매크로 범주의 공격 벡터로 이어집니다.

모델 반전 공격에는 모델 자체를 표적으로 삼아 훈련된 데이터(민감할 가능성이 높으므로 공격자에게 가치 있는 데이터)로 역엔지니어링하는 작업이 포함됩니다. 여기에는 개인 식별 정보(PII), 지적 재산(IP) 및 노출될 경우 조직에 큰 타격을 줄 수 있는 기타 민감하거나 규제되는 정보가 포함될 수 있습니다.

반면, 모델 스푸핑은 공격자가 입력 데이터를 조작하여 모델이 공격자의 의도에 맞춰 잘못된 결정을 내리도록 하는 방식으로 모델을 속이려고 시도하는 적대적 기계 학습의 한 형태를 나타냅니다. 이 프로세스에는 모델의 동작을 주의 깊게 관찰하거나 "학습"한 다음 입력 데이터를 변경하여(종종 눈에 띄지 않는 방식으로) 모델이 목표에 유리한 결정을 내리도록 속이는 작업이 포함됩니다. 이 두 공격 모두 ML 모델의 필수 부분인 모델 가중치와 관련된 취약점을 표적으로 삼습니다. 따라서 최근 백악관이 소집한 AI 위험 논의에서 모델 가중치 보호의 우선순위를 정해야 할 중요한 필요성이 강조되었습니다.

개인 정보 보호 기계 학습은 개인 정보 보호 강화 기술(PET)의 발전을 사용하여 이러한 취약점을 정면으로 해결합니다. PET는 처리 수명주기 전반에 걸쳐 데이터의 개인정보 보호와 보안을 유지하고 강화하는 기술 제품군으로, 고유하게 안전한 비공개 데이터 사용을 가능하게 합니다. 이러한 강력한 기술을 통해 기업은 민감한 ML 모델을 암호화하고 실행 및/또는 교육하며 노출 위험을 제거하면서 귀중한 통찰력을 추출할 수 있습니다. 기업은 경쟁적 이해관계가 관련된 경우에도 조직 경계와 보안 도메인을 넘어 서로 다른 데이터 소스를 안전하게 활용할 수 있습니다.