티스토리 뷰

반응형


2018 카카오 블라인드 코딩 1차 

  • http://tech.kakao.com/2017/09/27/kakao-blind-recruitment-round-1/

  • 카카오 에서는 블라인드 전형으로 공채 채용을 하고 있는데요, 이번 포스팅에선 2018년 1차 문제에 대해 살펴보겠습니다. 1차 문제는 총 7문제로 구성되어 있는데요, 5시간동안 4문제 이상 풀어내면 합격이라고 합니다. 언어는 어떤 언어든 상관 없으며 C, C++, JAVA, PYTHON 등 다양한 언어가 사용되었다고 합니다.


3. 캐시 - 문제 

  • 지도개발팀에서 근무하는 제이지는 지도에서 도시 이름을 검색하면 해당 도시와 관련된 맛집 게시물들을 데이터베이스에서 읽어 보여주는 서비스를 개발하고 있다.
    이 프로그램의 테스팅 업무를 담당하고 있는 어피치는 서비스를 오픈하기 전 각 로직에 대한 성능 측정을 수행하였는데, 제이지가 작성한 부분 중 데이터베이스에서 게시물을 가져오는 부분의 실행시간이 너무 오래 걸린다는 것을 알게 되었다.
    어피치는 제이지에게 해당 로직을 개선하라고 닦달하기 시작하였고, 제이지는 DB 캐시를 적용하여 성능 개선을 시도하고 있지만 캐시 크기를 얼마로 해야 효율적인지 몰라 난감한 상황이다.

  • 어피치에게 시달리는 제이지를 도와, DB 캐시를 적용할 때 캐시 크기에 따른 실행시간 측정 프로그램을 작성하시오.


입력 형식 

  • 캐시 크기(cacheSize)와 도시이름 배열(cities)을 입력받는다. 

  • cacheSize는 정수이며, 범위는 0 ≦ cacheSize ≦ 30 이다. 

  • cities는 도시 이름으로 이뤄진 문자열 배열로, 최대 도시 수는 100,000개이다. 

  • 각 도시 이름은 공백, 숫자, 특수문자 등이 없는 영문자로 구성되며, 대소문자 구분을 하지 않는다. 도시 이름은 최대 20자로 이루어져 있다.



출력 형식 

  • 입력된 도시이름 배열을 순서대로 처리할 때, “총 실행시간”을 출력한다.

조건 

  • 캐시 교체 알고리즘은 LRU(Least Recently Used)를 사용한다.

  • cache hit일 경우 실행시간은 1이다.

  • cache miss일 경우 실행시간은 5이다.



입출력 예제 




곰가드의 코드 


# 캐시 관련 함수 LRU 구현

def input_cache(cache, string, cache_size):

    try:

        if len(cache) > cache_size:

            if cache.count(string) == 0:

                cache.pop()

                cache[0] += 1

            elif cache.count(string) == 1:

                cache.remove(string)

        else:

            if cache.count(string) == 0:

                cache[0] += 1

        cache.insert(1, string)


    except:

        cache[0] = len(cities)


    finally:

        return cache



# 캐시 리스트 구조 : 

# 0번째에는 캐시에 인풋 몇번했는지에 대한 숫자,

# 1번째 부터 캐시에 저장되는 도시들


cache = [0]

cache_size = int(input())

cities = input().split()

for i in range(len(cities)):

    input_cache(cache, cities[i].lower(), cache_size)


res = cache[0]*5 + len(cities)-cache[0]

print(res)



  • 캐쉬(페이지)를 의미하는 리스트와 참조할 데이터들, 그리고 캐쉬의 크기를 나타내는 변수들이 함수의 파라메터로 사용됩니다.

  • 캐쉬 사이즈가 0 일 경우를 예외처리를 해준 부분 입니다.

  • 캐쉬에 저장된 값들의 개수가 캐쉬 사이즈 보다 큰 경우와 작은 경우로 나누어 진행하는데, 작은 경우는 캐쉬[0] 의 숫자를 1 증가시키고 참조할 데이터를 넣습니다. 캐쉬[0]은 캐쉬에 데이터가 몇번 없었는지를 의미하는 수 입니다.

  • 캐쉬에 저장된 값들의 개수가 캐쉬 사이즈 보다 큰 경우에는 그 참조값이 캐쉬에 있는지 없는지를 구별해서 진행합니다. 있는 경우에는 그 참조값을 캐쉬에서 제외하고 새로 입력하고, 없는 경우에는 맨 마지막 값을 지우고 새 값을 입력합니다.

  • 모든 과정을 마친 뒤에는 cache 리스트를 리턴합니다.



참고 자료 LRU 알고리즘 관련 내용 







반응형
댓글
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/04   »
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30
글 보관함