본문 바로가기

분류 전체보기

(30)
[17 SOSP] Resource Central: Understanding and Predicting Workloads for Improved Resource Management in Large Cloud Platforms 0 Abstract 현재까지의 클라우드 연구에는 클라우드 제공업체의 VM 워크로드의 특성에 대한 데이터가 부족했다. 효과 적인 자원 관리 시스템(resource management system)을 위해서는 이러한 특성에 대한 이해가 필요하다. 여기에는 VM scheduler, power manager, server health manager 등이 포함된다. 이 논문에서는 먼저 distributions of VM lifetime, deployment size, resource consumption을 정보를 사용하여 Microsoft Azure VM 워크로드의 chracteristic을 보여준다. 그런 다음 특정 VM 동작이 여러 lifetime 동안 상당히 일관성 있게 나타나는 것을 보여준다. 즉, 기록 ..
[20 ATC] Serverless in the Wild: Characterizing and Optimizing the Serverless Workload at a Large Cloud Provider FaaS(Function as a Service)는 클라우드의 서버리스 백엔드에 compuation을 제공하는 방식으로 배포된다. 이 패러다임에서는 클라우드 공급자에게 리소스를 할당하고 프로비저닝하는 복잡성을 전환하여 가능한 가장 낮은 리소스 비용으로 항상 사용 가능한 리소스(즉, cold start가 ​​없는 빠른 function call)를 제공하는 것이 중요하다. 이를 위해서 클라우드 공급자는 FaaS 워크로드의 특성을 깊이 이해해야 한다. 하지만 이러한 특성에 대해 공개된 정보는 거의 또는 전혀 없었다. 따라서 이 논문에서는 먼저 Azure Functions의 전체 프로덕션에서 FaaS 워크로드를 특성화한다. 예를 들어 대부분의 함수가 매우 드물게 호출된다는 것을 보여주지만 호출 빈도는 8단계로 ..
[17 SoCC] (PARIS) Selecting the best VM across multiple public clouds: a data-driven performance modeling approach 클라우드 서비스 사용자는 VM 유형을 선택해야 되며, VM의 선택은 성능과 비용에 상당한 영향을 미친다. 이 논문에서는 주어진 워크로드와 사용자 목표에 가장 적합한 VM을 정확하고 경제적으로 선택하는 문제를 다룬다. 최적의 VM 선택 문제를 해결하기 위해 새로운 하이브리드 오프라인 및 온라인 데이터 수집 및 모델링 프레임워크를 사용하여 최소한의 데이터 수집으로 정확한 성능 추정치를 제공하는 데이터 기반 시스템인 PARIS를 제시한다. PARIS는 다양한 사용자 지정 메트릭에 대한 워크로드 성능을 예측할 수 있으며, 여러 클라우드 제공업체의 광범위한 VM 유형 및 워크로드에 대한 결과 비용을 예측할 수 있다. 두개의 VM 유형에서 워크로드의 성능을 측정하여 기존 기술인 collaborative filter..
[21 Transactions on Cloud Computing] PerfSim: A Performance Simulator for Cloud Native Computing 클라우드 네이티브 컴퓨팅 패러다임은 마이크로서비스 기반 애플리케이션을 확장 가능하고 재사용 가능하며 상호 운용 가능한 방식으로 클라우드 인프라를 활용할 수 있도록 한다. 그러나 클라우드 네이티브 시스템의 방대한 수의 구성 매개변수와 매우 세분화된 리소스 할당 정책은 애플리케이션의 성능 및 배포 비용에 상당한 영향을 미칠 수 있다. 이러한 영향을 easy, quick, and cost-effective way로 이해하고 분석하기 위해 사용자 정의 시나리오에서 클라우드 네이티브 서비스 체인의 성능을 근사화하고 예측하기 위한 이산 이벤트 시뮬레이터인 PerfSim을 제시한다. 이를 위해 마이크로서비스 엔드포인트에 위치한 function의 성능을 성능 메트릭과 네트워크 추적을 수집하고 분석하여 모델링하는 방법을..
[14 ASPLOS] Quasar: Resource-efficient and QoS-Aware Cluster Management 0 Absctract 클라우드 컴퓨팅은 사용자에게는 유연성과 고성능을, 운영자에게는 높은 비용 효율성을 약속한다. 그럼에도 불구하고 대부분의 클라우드 시스템에서는 매우 낮은 utilization으로 동작하기 때문에 cost-efficiency와 scalability을 모두 저해하고 있다. Resource utilization을 높여 지속적으로 높은 애플리케이션 성능을 제공할 수 있는 클러스터 관리 시스템인 Quasar를 소개한다. Quasar는 세 가지 기술을 사용한다. 첫째, 사용자에 의한 복잡한 코드를 통해 workload dynamics 및 물리적 리소스 요구 사항을 제시해야하는 resource reservation 방법에 의존하지 않는 대신 사용자로부터 각 워크로드에 대한 성능 제약만을 표기하도록..
[12 NOMS] Workload Characterization and Prediction in the Cloud: A Multiple Time Series Approach 0 Abstract 클라우드 컴퓨팅은 컴퓨팅 요구 사항을 충족하기 위해 high scalability, flexibility and cost-effectiveness를 약속한다. 클라우드에서 컴퓨팅 리소스를 효율적으로 프로비저닝하기 위해 시스템 관리자는 VM의 워크로드를 특성화하고 예측하는 기능이 필요하다. 이 논문에서는 실제 데이터 센터에서 얻은 데이터 추적을 사용하여 이러한 기능을 개발합니다. 먼저, 각 VM에서 실행되는 어플리케이션 간의 종속성으로 발생하는 VM 간 워크로드의 correlation를 탐색하여 repeatable workload pattern을 탐색한다. 워크로드 데이터 샘플을 time series로 처리하여 correlated workload pattern을 자주 나타내는 VM 그룹..
[20 OSDI] Serving DNNs like clockwork: Performance predictability from the bottom up 0 Abstract Machine learning inference는 intractive 웹 어플리케이션의 핵심 building block이 되고 있다. 그 결과 기저에 모델이 서비스되는 시스템은 낮은 latency를 유지하는 것을 목표로 해야한다. 기존의 모델을 제공하는 아키텍처는 잘 알려진 reactive 기술을 사용하여 일반적인 경우의 latency 원인을 완화하지만 예측할 수 없는 execution time으로 인한 tail latency를 효과적으로 줄일 수는 없다. 그러나 기본 execution time은 근본적으로 예측할 수 없는 것이 아니며, 논문에서는 DNN(Deep Neural Network) 모델을 사용한 inference(추론)이 deterministic performance를 갖는..
[18 OSDI] Pocket: Elastic Ephemeral Storage for Serverless Analytics 0 Abstract 서버리스 컴퓨팅이 점점 더 대중화되어 사용자가 높은 탄력성과 세분화된 청구로 클라우드에서 수천 개의 단기 작업을 빠르게 시작할 수 있습니다. 이러한 속성은 서버리스 컴퓨팅을 대화형 데이터 분석에 매력적으로 만듭니다. 그러나 분석 작업의 실행 단계 간에 중간 데이터를 교환하는 것은 서버리스 작업 간의 직접 통신이 어렵기 때문에 핵심 과제입니다. 자연스러운 접근 방식은 이러한 임시 데이터를 원격 데이터 저장소에 저장하는 것입니다. 그러나 기존 스토리지 시스템은 탄력성, 성능 및 비용 측면에서 서버리스 애플리케이션의 요구 사항을 충족하도록 설계되지 않았습니다. 저렴한 비용으로 애플리케이션에 원하는 성능을 제공하도록 자동으로 확장되는 탄력적인 분산 데이터 저장소인 Pocket을 소개합니다. ..
[16 NSDI] Ernest: Efficient Performance Prediction for Large-Scale Advanced Analytics 0 Abstract 클라우드 컴퓨팅 인프라에서 머신러닝, 유전체학과 같은 과학 워크로드의 배포가 증가하는 추세이다. 이러한 워크로드를 수행하면서 성능과 비용을 크게 향상시키기 위해서는 적절한 하드웨어 구성을 선택하는 것이 중요하다. 위의 문제를 해결하기 위해서 최적의 구성을 자동으로 선택할 수 있도록 다양한 리소스들을 분석하여 애플리케이션의 성능을 예측하는 기능이 필요하다. 많은 워크로드들은 계산 및 통신 측면에서 예측 가능한 구조를 가지고 있다. 따라서 작은 데이터 샘플를 처리하는 워크로드의 동작을 기반으로 성능 모델을 구축한 다음 더 큰 데이터 세트 및 클러스터 크기에서 성능을 예측할 것이다. 모델을 구축하는 데 소요되는 시간과 리소스를 최소화하기 위해 최적의 실험 설계, 즉 필요한 만큼의 훈련 포인..
[11 MSST] Performance Modeling and Analysis of Flash-based Storage Devices 0 Abstract Flash 기반 SSD는 미래 스토리지 시스템의 핵심 구성 요소가 될 것이다. 정확한 성능 모델은 SSD의 최신 기술을 이해하는 데 도움이 될 뿐만 아니라 이러한 스토리지 시스템의 design space을 탐색하기 위한 연구의 도구로 사용될 수 있다. 수년에 걸쳐 하드 드라이브용으로 많은 성능 모델이 개발되었지만 두 장치 제품군 간의 아키텍처 차이로 인해 이러한 모델이 SSD에 효과적이지 않다. 하드 드라이브 성능 모델은 low latency, slow update, expensive block-level erase와 같은 SSD의 고유한 특성을 설명할 수 없다. 본 논문에서는 저장 장치에 대한 최소한의 apriori information(사전 정보가 필요한) black-box mod..