전체 글

x86 assemblyx86 아키텍처(intel, amd)는 32bit를 나타낸다. 간혹 x86_64, x64로 표현된 것은 64bit 환경을 나타낸다.해당 아키텍처가 어느 문법으로 세팅됐는지 확인하려면, gdb에서 show disassembly-flavor 명령어를 치면 된다.다른 문법으로 바꾸고 싶다면 set disassembly-flavor intel 이런 식으로 하면 된다. 표현방법 1. AT&Toperation에서 source first.ex) mov reg1, reg2 #reg1의 값이 reg2로 옮겨진다 표현방법 2. Inteldestination first. reg 표기 시 % 표시가 없음! ex) mov reg1, reg2 #reg2의 값이 reg1로 옮겨진다 Numerical rep..
그래프란?데이터 유형에는 시계열, 이미지, 텍스트, 공간적 데이터가 있다. -> 모두 “연속적”이라는 공통점그래프는 연속성보다는 상관관계, 위상적 연결을 통해 데이터에 접근하며, 시간에 따른 관계의 변화를 고려한다. Graph = G(V, E) V:Nodes(개체), E:Egde(관계) 활용 분야 : 소셜미디어, 화학식, 생물학, 교통, 프로그램 분석 그래프를 수학적으로 표현하는 방법기초적으로 인접행렬[두 노드가 연결되면 1, 연결되지 않으면 0 -> (#node, #node) shape, A or W] 로 표현된다. 그래프의 방향이 ‘없는’ 경우는 인접행렬이 symmetric하다. 하지만 방향이 있는 경우는 정보의 흐름까지 표현하기 위해 대칭성이 깨지게 된다. 또한, 만약 자기 자신의 정보도 중요한 ..
각각의 프로그램들은 서로 다른 권한을 가지고 실행된다.예를 들어 /etc/shadow file은 user의 pw를 저장하는 파일이다. 이 파일에는 모든 유저의 정보가 hash로 들어가 있기에 매우 중요한 파일이다. 그래서 root권한을 부여한다. 만약 Alice라는 user가 자신의 pw를 바꾸고 싶다면, 이 유저는 write 권한이 없는데 어떡하지? 라는 생각에서 시작된다.이런 사용자들은 '특권'을 요청할 수 있어야 한다. 만약 OS가 직접 접근 권한을 미세하게 조정할 수 있도록 하려면 매우 복잡하게 된다. 따라서 user가 권한을 요청하도록 한다. 하지만 user가 kernel(OS)에 직접적인 요청을 하는 것이 불가하기에 extension을 중간 과정으로 거치는데,그 extension 중 하나가 f..
보호되어 있는 글입니다.
· AI/논문
보호되어 있는 글입니다.
· AI/논문
Songtao Liu, Rex Ying,Hanze Dong, Lanqing Li, Tingyang Xu, Yu Rong, Peilin Zhao, Junzhou Huang, Dinghao Wu1. 그래프 신경망(GNN)은 이웃 노드 정보 집계에 의존하지만, 이웃이 적은 노드의 표현 학습에 한계가 있습니다. 2. 본 논문은 중심 노드의 특징에 기반하여 이웃 노드의 특징 분포를 학습하고 추가적인 특징을 생성하는 로컬 증강(Local Augmentation) 기법을 제안합니다. 3. 이 플러그-앤-플레이 방식의 기법은 다양한 GNN 모델에 쉽게 적용 가능하며, 여러 벤치마크에서 특히 저연결 노드의 성능을 포함하여 GNN의 전반적인 성능을 향상시키는 것으로 나타났습니다. 초록GNN의 한계점을 해결하기 위한 데이터..
· AI/논문
On k-Path Covers and their Applications, Stefan Funke, Andre Nusser, Sabine Storandt 1. 대규모 도로 네트워크에서, 길이가 k인 모든 경로에 대해 최소 하나 이상의 노드를 포함하는 작은 노드 집합 (k-Path Cover)를 구성하는 문제를 다룬다.2. 위 k-Path Cover를 실제 대규모 그래프에서 매우 작게 효율적으로 구축할 수 있는 Pruning 알고리즘을 제시하며, 이는 기존 k-Shortest-Path Cover 방법보다 더 나은 결과를 얻는다.3. 구성된 k-Path Cover는 오버레이 그래프의 기반이 되어, 사용자별 선호도를 반영하는 개인화된 경로 계획 질의를 기존 Dijkstra 알고리즘보다 훨씬 빠르게 처리 가능하다..
· AI/딥러닝
RNN의 문제점RNN은 과거 입력들이 계속 연결된 구조이기에,역전파 과정에서 gradient가 계속 곱해지면서 weight가 1보다 작으면 gradient가 점점 작아져 사라지고(vanishing),1보다 크면 gradient가 점점 커져서 폭발하게 된다(exploding).이러한 문제는 RNN이 장기 의존성을 학습하는 데 큰 방해가 된다.그나마 exploding 문제는 gradient clipping을 하면 되지만, vanishing gradient 문제는 RNN의 구조를 바꿔야 할 필요가 있다.그래서 나타난 것이 LSTM이다. LSTM(Long Short Term Memory)기울기 소실/폭발 문제를 해결하기 위해 등장한 구조로,핵심 아이디어는 '정보를 장기적으로 유지할 수 있는 cell state..
김다빈다
빈닥스