RRFRRF commited on
Commit
d5dac94
·
1 Parent(s): a3ab6c4

修改钩子机制 修改训练文件保存格式

Browse files
Graph/cora/README ADDED
@@ -0,0 +1,29 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ This directory contains the a selection of the Cora dataset (www.research.whizbang.com/data).
2
+
3
+ The Cora dataset consists of Machine Learning papers. These papers are classified into one of the following seven classes:
4
+ Case_Based
5
+ Genetic_Algorithms
6
+ Neural_Networks
7
+ Probabilistic_Methods
8
+ Reinforcement_Learning
9
+ Rule_Learning
10
+ Theory
11
+
12
+ The papers were selected in a way such that in the final corpus every paper cites or is cited by atleast one other paper. There are 2708 papers in the whole corpus.
13
+
14
+ After stemming and removing stopwords we were left with a vocabulary of size 1433 unique words. All words with document frequency less than 10 were removed.
15
+
16
+
17
+ THE DIRECTORY CONTAINS TWO FILES:
18
+
19
+ The .content file contains descriptions of the papers in the following format:
20
+
21
+ <paper_id> <word_attributes>+ <class_label>
22
+
23
+ The first entry in each line contains the unique string ID of the paper followed by binary values indicating whether each word in the vocabulary is present (indicated by 1) or absent (indicated by 0) in the paper. Finally, the last entry in the line contains the class label of the paper.
24
+
25
+ The .cites file contains the citation graph of the corpus. Each line describes a link in the following format:
26
+
27
+ <ID of cited paper> <ID of citing paper>
28
+
29
+ Each line contains two paper IDs. The first entry is the ID of the paper being cited and the second ID stands for the paper which contains the citation. The direction of the link is from right to left. If a line is represented by "paper1 paper2" then the link is "paper2->paper1".
Graph/cora/cora.cites ADDED
@@ -0,0 +1,5429 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ 35 1033
2
+ 35 103482
3
+ 35 103515
4
+ 35 1050679
5
+ 35 1103960
6
+ 35 1103985
7
+ 35 1109199
8
+ 35 1112911
9
+ 35 1113438
10
+ 35 1113831
11
+ 35 1114331
12
+ 35 1117476
13
+ 35 1119505
14
+ 35 1119708
15
+ 35 1120431
16
+ 35 1123756
17
+ 35 1125386
18
+ 35 1127430
19
+ 35 1127913
20
+ 35 1128204
21
+ 35 1128227
22
+ 35 1128314
23
+ 35 1128453
24
+ 35 1128945
25
+ 35 1128959
26
+ 35 1128985
27
+ 35 1129018
28
+ 35 1129027
29
+ 35 1129573
30
+ 35 1129683
31
+ 35 1129778
32
+ 35 1130847
33
+ 35 1130856
34
+ 35 1131116
35
+ 35 1131360
36
+ 35 1131557
37
+ 35 1131752
38
+ 35 1133196
39
+ 35 1133338
40
+ 35 1136814
41
+ 35 1137466
42
+ 35 1152421
43
+ 35 1152508
44
+ 35 1153065
45
+ 35 1153280
46
+ 35 1153577
47
+ 35 1153853
48
+ 35 1153943
49
+ 35 1154176
50
+ 35 1154459
51
+ 35 116552
52
+ 35 12576
53
+ 35 128540
54
+ 35 132806
55
+ 35 135130
56
+ 35 141342
57
+ 35 141347
58
+ 35 148170
59
+ 35 15670
60
+ 35 1688
61
+ 35 175291
62
+ 35 178727
63
+ 35 18582
64
+ 35 190697
65
+ 35 190706
66
+ 35 1956
67
+ 35 197054
68
+ 35 198443
69
+ 35 198653
70
+ 35 206371
71
+ 35 210871
72
+ 35 229635
73
+ 35 231249
74
+ 35 248425
75
+ 35 249421
76
+ 35 254923
77
+ 35 259701
78
+ 35 259702
79
+ 35 263279
80
+ 35 263498
81
+ 35 265203
82
+ 35 273152
83
+ 35 27510
84
+ 35 28290
85
+ 35 286500
86
+ 35 287787
87
+ 35 28851
88
+ 35 289779
89
+ 35 289780
90
+ 35 289781
91
+ 35 307015
92
+ 35 335733
93
+ 35 33904
94
+ 35 33907
95
+ 35 35061
96
+ 35 38205
97
+ 35 387795
98
+ 35 415693
99
+ 35 41714
100
+ 35 427606
101
+ 35 44368
102
+ 35 45599
103
+ 35 46079
104
+ 35 46431
105
+ 35 486840
106
+ 35 48766
107
+ 35 503883
108
+ 35 503893
109
+ 35 513189
110
+ 35 54129
111
+ 35 54131
112
+ 35 56119
113
+ 35 561238
114
+ 35 568857
115
+ 35 573964
116
+ 35 573978
117
+ 35 574009
118
+ 35 574264
119
+ 35 574462
120
+ 35 575077
121
+ 35 575292
122
+ 35 575331
123
+ 35 576725
124
+ 35 576795
125
+ 35 577227
126
+ 35 578780
127
+ 35 579008
128
+ 35 592973
129
+ 35 593091
130
+ 35 593105
131
+ 35 593240
132
+ 35 593260
133
+ 35 593813
134
+ 35 594047
135
+ 35 594543
136
+ 35 594649
137
+ 35 594900
138
+ 35 608326
139
+ 35 634902
140
+ 35 634904
141
+ 35 634938
142
+ 35 634975
143
+ 35 640617
144
+ 35 646809
145
+ 35 646837
146
+ 35 647408
147
+ 35 647447
148
+ 35 66556
149
+ 35 66563
150
+ 35 66805
151
+ 35 69284
152
+ 35 69296
153
+ 35 694759
154
+ 35 735303
155
+ 35 78511
156
+ 35 787016
157
+ 35 801170
158
+ 35 81722
159
+ 35 82098
160
+ 35 84021
161
+ 35 85352
162
+ 35 86359
163
+ 35 8865
164
+ 35 887
165
+ 35 97645
166
+ 35 98698
167
+ 40 1109017
168
+ 40 1114442
169
+ 40 116552
170
+ 114 1103315
171
+ 114 1105394
172
+ 114 1106112
173
+ 114 1106172
174
+ 114 1106406
175
+ 114 1107455
176
+ 114 1111052
177
+ 114 1114125
178
+ 114 1117942
179
+ 114 1118245
180
+ 114 1118332
181
+ 114 1120170
182
+ 114 1126029
183
+ 114 124064
184
+ 114 128
185
+ 114 130
186
+ 114 136665
187
+ 114 191404
188
+ 114 193742
189
+ 114 23258
190
+ 114 28227
191
+ 114 28287
192
+ 114 28350
193
+ 114 28387
194
+ 114 28471
195
+ 114 28485
196
+ 114 341188
197
+ 114 38480
198
+ 114 39403
199
+ 114 434
200
+ 114 55968
201
+ 114 58540
202
+ 114 6155
203
+ 114 6170
204
+ 114 6196
205
+ 114 6220
206
+ 114 64484
207
+ 114 7432
208
+ 114 755217
209
+ 114 8213
210
+ 114 91975
211
+ 114 976334
212
+ 117 1109581
213
+ 117 149669
214
+ 117 17476
215
+ 117 189708
216
+ 117 206259
217
+ 117 28202
218
+ 117 28278
219
+ 117 28387
220
+ 117 28471
221
+ 117 32872
222
+ 117 33013
223
+ 117 341188
224
+ 117 38480
225
+ 117 39403
226
+ 117 6170
227
+ 117 6214
228
+ 117 75674
229
+ 128 1114125
230
+ 128 20526
231
+ 128 39403
232
+ 128 91975
233
+ 130 13960
234
+ 130 345340
235
+ 130 39403
236
+ 288 1118092
237
+ 288 36167
238
+ 424 1135125
239
+ 424 218666
240
+ 424 47684
241
+ 434 267003
242
+ 463 58454
243
+ 504 1102364
244
+ 504 1112650
245
+ 504 506
246
+ 504 89416
247
+ 506 1102364
248
+ 506 1106546
249
+ 506 89416
250
+ 887 10796
251
+ 887 1105033
252
+ 887 1111304
253
+ 887 1112911
254
+ 887 1113614
255
+ 887 114308
256
+ 887 12576
257
+ 887 134128
258
+ 887 161221
259
+ 887 170798
260
+ 887 17476
261
+ 887 19045
262
+ 887 20972
263
+ 887 265203
264
+ 887 28456
265
+ 887 299195
266
+ 887 299197
267
+ 887 334153
268
+ 887 35490
269
+ 887 38205
270
+ 887 595056
271
+ 887 6151
272
+ 887 6213
273
+ 887 6215
274
+ 887 64519
275
+ 887 87363
276
+ 887 976334
277
+ 906 1103979
278
+ 906 1105344
279
+ 906 1114352
280
+ 906 1136397
281
+ 906 1140040
282
+ 906 34355
283
+ 906 910
284
+ 910 1104379
285
+ 910 1105344
286
+ 910 1105530
287
+ 910 1108834
288
+ 910 1110520
289
+ 910 1114118
290
+ 910 1116569
291
+ 910 1118848
292
+ 910 1120858
293
+ 910 1122460
294
+ 910 1126044
295
+ 910 1129111
296
+ 910 1135137
297
+ 910 1140040
298
+ 910 1152194
299
+ 910 12439
300
+ 910 12946
301
+ 910 131042
302
+ 910 13136
303
+ 910 160705
304
+ 910 227286
305
+ 910 242637
306
+ 910 28278
307
+ 910 31043
308
+ 910 340075
309
+ 910 340078
310
+ 910 34355
311
+ 910 35905
312
+ 910 42847
313
+ 910 436796
314
+ 910 48550
315
+ 910 5462
316
+ 910 576257
317
+ 910 58552
318
+ 910 5869
319
+ 910 636511
320
+ 910 67292
321
+ 910 675649
322
+ 910 684372
323
+ 910 755217
324
+ 910 94953
325
+ 936 1107010
326
+ 936 1111899
327
+ 936 129558
328
+ 936 1956
329
+ 936 207395
330
+ 936 3084
331
+ 936 3828
332
+ 936 38845
333
+ 940 20180
334
+ 940 28265
335
+ 940 3828
336
+ 941 129558
337
+ 941 20180
338
+ 941 28265
339
+ 941 3828
340
+ 941 940
341
+ 943 1152896
342
+ 943 3828
343
+ 943 91852
344
+ 1026 1034
345
+ 1026 1102550
346
+ 1026 1105231
347
+ 1026 1129798
348
+ 1026 1153945
349
+ 1033 1034
350
+ 1033 1107062
351
+ 1034 1153945
352
+ 1035 1034
353
+ 1035 1107062
354
+ 1035 1110515
355
+ 1213 1154525
356
+ 1213 409725
357
+ 1213 8766
358
+ 1237 102938
359
+ 1237 1102400
360
+ 1237 1106112
361
+ 1237 143676
362
+ 1246 1102400
363
+ 1246 1104007
364
+ 1246 42207
365
+ 1246 57764
366
+ 1246 6125
367
+ 1272 1102625
368
+ 1272 1108167
369
+ 1272 1120962
370
+ 1272 112378
371
+ 1272 1123867
372
+ 1272 1128256
373
+ 1272 1129208
374
+ 1272 1135125
375
+ 1272 1135358
376
+ 1272 157805
377
+ 1272 18615
378
+ 1272 192734
379
+ 1272 20593
380
+ 1272 254923
381
+ 1272 27230
382
+ 1272 284414
383
+ 1272 30895
384
+ 1272 30901
385
+ 1272 444240
386
+ 1272 520471
387
+ 1272 52835
388
+ 1272 552469
389
+ 1272 560936
390
+ 1272 591016
391
+ 1272 636098
392
+ 1272 65653
393
+ 1272 6917
394
+ 1272 6923
395
+ 1272 85452
396
+ 1272 85688
397
+ 1272 93923
398
+ 1272 97892
399
+ 1365 1031453
400
+ 1365 1102407
401
+ 1365 1105062
402
+ 1365 1106287
403
+ 1365 1108050
404
+ 1365 1110494
405
+ 1365 1110998
406
+ 1365 1113995
407
+ 1365 1114153
408
+ 1365 1114352
409
+ 1365 1114388
410
+ 1365 1114605
411
+ 1365 1116347
412
+ 1365 1116594
413
+ 1365 1117653
414
+ 1365 1119140
415
+ 1365 1120211
416
+ 1365 1120866
417
+ 1365 1128839
418
+ 1365 1129443
419
+ 1365 1130600
420
+ 1365 1131647
421
+ 1365 1131745
422
+ 1365 1131748
423
+ 1365 1132922
424
+ 1365 1132968
425
+ 1365 1135137
426
+ 1365 1135368
427
+ 1365 1136422
428
+ 1365 1136442
429
+ 1365 1152143
430
+ 1365 1152821
431
+ 1365 1154169
432
+ 1365 120084
433
+ 1365 139865
434
+ 1365 157401
435
+ 1365 161221
436
+ 1365 171225
437
+ 1365 184918
438
+ 1365 188318
439
+ 1365 188471
440
+ 1365 22835
441
+ 1365 23448
442
+ 1365 23502
443
+ 1365 23507
444
+ 1365 237521
445
+ 1365 26850
446
+ 1365 330148
447
+ 1365 340075
448
+ 1365 340299
449
+ 1365 39904
450
+ 1365 436796
451
+ 1365 49482
452
+ 1365 560936
453
+ 1365 562123
454
+ 1365 628500
455
+ 1365 648232
456
+ 1365 649731
457
+ 1365 69392
458
+ 1365 7276
459
+ 1365 7297
460
+ 1365 77758
461
+ 1365 782486
462
+ 1365 83826
463
+ 1365 85299
464
+ 1365 853150
465
+ 1365 90888
466
+ 1365 93555
467
+ 1365 948299
468
+ 1365 948846
469
+ 1365 949318
470
+ 1365 949511
471
+ 1365 950052
472
+ 1365 950305
473
+ 1481 1102567
474
+ 1481 1106052
475
+ 1481 1108267
476
+ 1481 1111614
477
+ 1481 1113934
478
+ 1481 1114864
479
+ 1481 1117184
480
+ 1481 1119295
481
+ 1481 1120563
482
+ 1481 1153891
483
+ 1481 13960
484
+ 1481 200480
485
+ 1481 399173
486
+ 1481 4878
487
+ 1481 521207
488
+ 1481 521269
489
+ 1688 1103985
490
+ 1688 1131360
491
+ 1688 1133338
492
+ 1688 1134022
493
+ 1688 1136814
494
+ 1688 1153065
495
+ 1688 152483
496
+ 1688 1694
497
+ 1688 39474
498
+ 1688 44368
499
+ 1688 576725
500
+ 1688 647413
501
+ 1688 69284
502
+ 1688 694759
503
+ 1688 84021
504
+ 1694 39474
505
+ 1717 1115291
506
+ 1717 1116336
507
+ 1717 1135108
508
+ 1717 50381
509
+ 1717 733167
510
+ 1786 35797
511
+ 1817 1114502
512
+ 1919 1108389
513
+ 1919 1109581
514
+ 1949 129042
515
+ 1949 3101
516
+ 1951 3095
517
+ 1952 1107215
518
+ 1952 1111899
519
+ 1952 1949
520
+ 1952 3101
521
+ 1953 1153166
522
+ 1953 1153724
523
+ 1953 1153728
524
+ 1953 1949
525
+ 1955 110163
526
+ 1955 1110390
527
+ 1955 1125386
528
+ 1955 1956
529
+ 1956 101143
530
+ 1956 1111899
531
+ 1956 1118302
532
+ 1956 1153101
533
+ 1956 1153150
534
+ 1956 1817
535
+ 1956 263486
536
+ 1956 83449
537
+ 1959 101143
538
+ 1959 1152896
539
+ 1959 1153728
540
+ 1959 170798
541
+ 1959 207395
542
+ 1959 3097
543
+ 1959 310530
544
+ 1959 38839
545
+ 1959 73327
546
+ 1959 82664
547
+ 1997 1102442
548
+ 1997 1108551
549
+ 1997 1109439
550
+ 1997 1109542
551
+ 1997 129897
552
+ 1997 154982
553
+ 1997 3233
554
+ 1997 49811
555
+ 1997 7032
556
+ 1999 1102442
557
+ 1999 1123068
558
+ 1999 1131471
559
+ 1999 39126
560
+ 1999 6771
561
+ 2354 10186
562
+ 2354 1107140
563
+ 2354 1113852
564
+ 2354 1130539
565
+ 2354 154134
566
+ 2354 40151
567
+ 2354 74749
568
+ 2440 1000012
569
+ 2440 1061127
570
+ 2440 1106388
571
+ 2440 1107095
572
+ 2440 1108551
573
+ 2440 1110426
574
+ 2440 1114512
575
+ 2440 1117786
576
+ 2440 1119295
577
+ 2440 1120650
578
+ 2440 1127619
579
+ 2440 1153254
580
+ 2440 136766
581
+ 2440 136768
582
+ 2440 151430
583
+ 2440 18615
584
+ 2440 212777
585
+ 2440 23546
586
+ 2440 27230
587
+ 2440 49811
588
+ 2440 49843
589
+ 2440 49844
590
+ 2440 49847
591
+ 2440 582343
592
+ 2440 591016
593
+ 2440 591017
594
+ 2440 63931
595
+ 2440 6917
596
+ 2440 6923
597
+ 2440 72908
598
+ 2653 102406
599
+ 2653 107177
600
+ 2653 1104055
601
+ 2653 1116268
602
+ 2653 1116842
603
+ 2653 1118764
604
+ 2653 1119751
605
+ 2653 1152075
606
+ 2653 167656
607
+ 2653 175291
608
+ 2653 197783
609
+ 2653 28641
610
+ 2653 321861
611
+ 2653 350362
612
+ 2653 4660
613
+ 2653 59045
614
+ 2653 6125
615
+ 2653 65650
616
+ 2654 1104851
617
+ 2654 1106630
618
+ 2654 1107861
619
+ 2654 1110438
620
+ 2654 1116842
621
+ 2654 1121867
622
+ 2654 1123926
623
+ 2654 1152075
624
+ 2654 197783
625
+ 2654 211906
626
+ 2654 27250
627
+ 2654 463825
628
+ 2654 52784
629
+ 2658 1115375
630
+ 2658 1130676
631
+ 2658 1130808
632
+ 2658 1131607
633
+ 2658 1132948
634
+ 2658 1135899
635
+ 2658 1140230
636
+ 2658 230884
637
+ 2658 236759
638
+ 2658 282700
639
+ 2658 395540
640
+ 2658 578347
641
+ 2658 696342
642
+ 2658 696345
643
+ 2658 696346
644
+ 2658 751408
645
+ 2658 99023
646
+ 2663 1119671
647
+ 2665 1105574
648
+ 2665 1113035
649
+ 2665 1115375
650
+ 2665 1122704
651
+ 2665 1130676
652
+ 2665 1130808
653
+ 2665 1131607
654
+ 2665 1132486
655
+ 2665 1132948
656
+ 2665 1132968
657
+ 2665 205192
658
+ 2665 230884
659
+ 2665 237489
660
+ 2665 2658
661
+ 2665 395540
662
+ 2665 43639
663
+ 2665 578306
664
+ 2665 578309
665
+ 2665 578337
666
+ 2665 578347
667
+ 2665 582139
668
+ 2665 630817
669
+ 2665 631052
670
+ 2665 696345
671
+ 2665 696346
672
+ 2665 751408
673
+ 2665 763009
674
+ 2665 99023
675
+ 2695 1108169
676
+ 2695 1120197
677
+ 2695 2698
678
+ 2695 342802
679
+ 2696 1108050
680
+ 2696 1108169
681
+ 2696 1113035
682
+ 2696 1114192
683
+ 2696 1118083
684
+ 2696 1120858
685
+ 2696 1123239
686
+ 2696 1133004
687
+ 2696 160705
688
+ 2696 256106
689
+ 2696 2695
690
+ 2696 2698
691
+ 2696 342802
692
+ 2696 469504
693
+ 2696 5348
694
+ 2696 5869
695
+ 2696 99025
696
+ 2698 1114192
697
+ 2698 256106
698
+ 2698 2695
699
+ 2698 342802
700
+ 2698 99025
701
+ 2702 1120777
702
+ 2702 12330
703
+ 2702 395553
704
+ 2702 72056
705
+ 3084 1107171
706
+ 3084 255233
707
+ 3084 33303
708
+ 3085 15889
709
+ 3085 221302
710
+ 3085 30973
711
+ 3085 395725
712
+ 3085 5062
713
+ 3085 83449
714
+ 3095 110162
715
+ 3095 110163
716
+ 3095 218682
717
+ 3095 83449
718
+ 3097 1106236
719
+ 3097 129045
720
+ 3097 1949
721
+ 3097 1952
722
+ 3097 3101
723
+ 3101 110162
724
+ 3101 110163
725
+ 3101 110164
726
+ 3101 70441
727
+ 3112 103529
728
+ 3112 110163
729
+ 3112 110164
730
+ 3112 1152564
731
+ 3112 1949
732
+ 3112 470511
733
+ 3112 77826
734
+ 3112 77829
735
+ 3187 1110000
736
+ 3187 129896
737
+ 3187 129897
738
+ 3187 280876
739
+ 3187 5086
740
+ 3191 105865
741
+ 3191 1106789
742
+ 3191 1127530
743
+ 3191 1131267
744
+ 3191 129896
745
+ 3191 129897
746
+ 3191 137873
747
+ 3191 162664
748
+ 3191 308920
749
+ 3191 310742
750
+ 3191 3192
751
+ 3191 423463
752
+ 3191 5086
753
+ 3191 561364
754
+ 3191 642827
755
+ 3192 105865
756
+ 3192 129896
757
+ 3192 310742
758
+ 3192 3191
759
+ 3192 423463
760
+ 3192 5086
761
+ 3192 561364
762
+ 3192 642827
763
+ 3217 1000012
764
+ 3217 167670
765
+ 3217 238099
766
+ 3217 65653
767
+ 3217 86840
768
+ 3218 1106492
769
+ 3218 1110426
770
+ 3218 1119987
771
+ 3218 1120169
772
+ 3218 1152290
773
+ 3218 1153264
774
+ 3218 187354
775
+ 3218 277263
776
+ 3218 35070
777
+ 3218 417017
778
+ 3218 49843
779
+ 3218 6639
780
+ 3218 66782
781
+ 3218 6767
782
+ 3218 6941
783
+ 3220 1115677
784
+ 3220 1125992
785
+ 3220 1128430
786
+ 3220 1130634
787
+ 3220 1131728
788
+ 3220 1132706
789
+ 3220 120039
790
+ 3220 145215
791
+ 3220 167670
792
+ 3220 346243
793
+ 3220 36620
794
+ 3220 39124
795
+ 3220 40922
796
+ 3220 429805
797
+ 3220 654177
798
+ 3220 69397
799
+ 3220 8832
800
+ 3222 1103737
801
+ 3222 1114222
802
+ 3222 1131137
803
+ 3222 1132157
804
+ 3222 167656
805
+ 3222 964248
806
+ 3223 1132157
807
+ 3223 1153101
808
+ 3223 1153150
809
+ 3223 167656
810
+ 3223 167670
811
+ 3229 100197
812
+ 3229 1050679
813
+ 3229 1103960
814
+ 3229 1105718
815
+ 3229 1106568
816
+ 3229 1108209
817
+ 3229 1108834
818
+ 3229 1109392
819
+ 3229 1112767
820
+ 3229 1125082
821
+ 3229 1125895
822
+ 3229 1126037
823
+ 3229 1128839
824
+ 3229 1128868
825
+ 3229 1130915
826
+ 3229 1130927
827
+ 3229 1130931
828
+ 3229 1131647
829
+ 3229 1131748
830
+ 3229 1132418
831
+ 3229 1140289
832
+ 3229 1152277
833
+ 3229 1152673
834
+ 3229 1154169
835
+ 3229 1154251
836
+ 3229 118559
837
+ 3229 133550
838
+ 3229 157401
839
+ 3229 16461
840
+ 3229 189577
841
+ 3229 23502
842
+ 3229 25181
843
+ 3229 25184
844
+ 3229 27174
845
+ 3229 27631
846
+ 3229 31769
847
+ 3229 33412
848
+ 3229 35343
849
+ 3229 35863
850
+ 3229 35922
851
+ 3229 390922
852
+ 3229 396412
853
+ 3229 444191
854
+ 3229 447250
855
+ 3229 48550
856
+ 3229 49482
857
+ 3229 52515
858
+ 3229 62347
859
+ 3229 641976
860
+ 3229 654326
861
+ 3229 7022
862
+ 3229 72101
863
+ 3229 82087
864
+ 3229 82098
865
+ 3229 83826
866
+ 3229 90888
867
+ 3229 919885
868
+ 3229 92065
869
+ 3229 948299
870
+ 3229 949511
871
+ 3229 96335
872
+ 3231 104840
873
+ 3231 1102761
874
+ 3231 1106330
875
+ 3231 1106370
876
+ 3231 1107067
877
+ 3231 1113926
878
+ 3231 1115471
879
+ 3231 1125386
880
+ 3231 1128536
881
+ 3231 1131471
882
+ 3231 1153169
883
+ 3231 167670
884
+ 3231 180399
885
+ 3231 200480
886
+ 3231 20850
887
+ 3231 25184
888
+ 3231 259126
889
+ 3231 263279
890
+ 3231 3237
891
+ 3231 328370
892
+ 3231 39124
893
+ 3231 39126
894
+ 3231 46431
895
+ 3231 49660
896
+ 3231 6334
897
+ 3231 63477
898
+ 3231 63486
899
+ 3231 636098
900
+ 3231 66594
901
+ 3231 68463
902
+ 3231 8699
903
+ 3231 8821
904
+ 3232 1106330
905
+ 3232 1123068
906
+ 3232 1128536
907
+ 3232 20850
908
+ 3232 20942
909
+ 3232 521251
910
+ 3232 66594
911
+ 3233 1103737
912
+ 3233 1114222
913
+ 3233 1125467
914
+ 3233 192850
915
+ 3233 1997
916
+ 3233 272720
917
+ 3233 509379
918
+ 3233 66594
919
+ 3233 976284
920
+ 3235 1114222
921
+ 3235 65653
922
+ 3236 1125467
923
+ 3236 167670
924
+ 3236 3233
925
+ 3236 3237
926
+ 3236 601561
927
+ 3237 964248
928
+ 3240 1110531
929
+ 3240 1131137
930
+ 3240 3233
931
+ 3240 36620
932
+ 3240 39130
933
+ 3240 964248
934
+ 3243 1103610
935
+ 3243 1104055
936
+ 3243 1110947
937
+ 3243 1113739
938
+ 3243 307336
939
+ 3243 30895
940
+ 3243 30901
941
+ 3243 31932
942
+ 3243 350362
943
+ 3243 368431
944
+ 3243 854434
945
+ 3243 96335
946
+ 3828 1152896
947
+ 3828 1956
948
+ 3828 207395
949
+ 3828 310530
950
+ 3932 5075
951
+ 4274 1105428
952
+ 4274 1114664
953
+ 4274 1119078
954
+ 4329 105899
955
+ 4329 1110768
956
+ 4329 1111304
957
+ 4329 28254
958
+ 4329 395547
959
+ 4329 46468
960
+ 4329 510718
961
+ 4330 1103676
962
+ 4330 1103737
963
+ 4330 1104449
964
+ 4330 1108834
965
+ 4330 11093
966
+ 4330 1109439
967
+ 4330 1110438
968
+ 4330 1112929
969
+ 4330 1114352
970
+ 4330 1132459
971
+ 4330 1132461
972
+ 4330 1135108
973
+ 4330 1136393
974
+ 4330 1136397
975
+ 4330 1152917
976
+ 4330 118436
977
+ 4330 119956
978
+ 4330 120013
979
+ 4330 12946
980
+ 4330 137873
981
+ 4330 151708
982
+ 4330 168410
983
+ 4330 1717
984
+ 4330 299197
985
+ 4330 32688
986
+ 4330 328370
987
+ 4330 35797
988
+ 4330 37884
989
+ 4330 390889
990
+ 4330 395553
991
+ 4330 428610
992
+ 4330 4329
993
+ 4330 46468
994
+ 4330 684986
995
+ 4330 69392
996
+ 4330 69418
997
+ 4330 753265
998
+ 4330 949217
999
+ 4335 1104300
1000
+ 4335 1121254
1001
+ 4335 1136310
1002
+ 4335 1136397
1003
+ 4335 1140547
1004
+ 4335 116790
1005
+ 4335 1717
1006
+ 4335 239800
1007
+ 4335 32698
1008
+ 4335 35922
1009
+ 4335 390889
1010
+ 4335 46468
1011
+ 4335 62274
1012
+ 4335 62417
1013
+ 4335 755082
1014
+ 4335 95718
1015
+ 4553 1102548
1016
+ 4584 1031453
1017
+ 4584 1102550
1018
+ 4584 1113739
1019
+ 4584 1116347
1020
+ 4584 1120020
1021
+ 4584 1128839
1022
+ 4584 1130567
1023
+ 4584 1130600
1024
+ 4584 124064
1025
+ 4584 1272
1026
+ 4584 128
1027
+ 4584 132806
1028
+ 4584 13885
1029
+ 4584 13917
1030
+ 4584 168410
1031
+ 4584 188471
1032
+ 4584 193742
1033
+ 4584 28278
1034
+ 4584 28287
1035
+ 4584 293285
1036
+ 4584 36167
1037
+ 4584 6151
1038
+ 4584 6155
1039
+ 4584 6184
1040
+ 4584 6196
1041
+ 4584 6210
1042
+ 4584 6213
1043
+ 4584 6214
1044
+ 4584 628500
1045
+ 4584 628815
1046
+ 4584 782486
1047
+ 4584 976334
1048
+ 4637 164
1049
+ 4649 1105887
1050
+ 4649 1127851
1051
+ 4649 135765
1052
+ 4649 135766
1053
+ 4649 411092
1054
+ 4649 434
1055
+ 4649 449841
1056
+ 4649 6917
1057
+ 4649 8703
1058
+ 4660 18615
1059
+ 4660 429781
1060
+ 4660 5038
1061
+ 4660 582343
1062
+ 4804 102884
1063
+ 4804 1108175
1064
+ 4804 1112574
1065
+ 4804 1153262
1066
+ 4804 12182
1067
+ 4804 12210
1068
+ 4804 157761
1069
+ 4804 164
1070
+ 4804 25805
1071
+ 4804 45189
1072
+ 4804 68505
1073
+ 4804 77515
1074
+ 4804 976284
1075
+ 4804 989397
1076
+ 4878 1102567
1077
+ 4983 7867
1078
+ 5055 1104851
1079
+ 5055 1107861
1080
+ 5055 1119751
1081
+ 5055 1121867
1082
+ 5055 129897
1083
+ 5055 167656
1084
+ 5062 1120563
1085
+ 5062 28026
1086
+ 5062 5064
1087
+ 5062 5069
1088
+ 5062 521207
1089
+ 5064 1120563
1090
+ 5064 1121176
1091
+ 5064 1129106
1092
+ 5064 272345
1093
+ 5064 28026
1094
+ 5064 385067
1095
+ 5064 5069
1096
+ 5069 1120563
1097
+ 5069 385067
1098
+ 5069 5064
1099
+ 5075 1120563
1100
+ 5075 5064
1101
+ 5075 5069
1102
+ 5086 109323
1103
+ 5086 1105698
1104
+ 5086 129896
1105
+ 5086 137849
1106
+ 5086 3187
1107
+ 5086 3191
1108
+ 5086 354004
1109
+ 5086 423463
1110
+ 5086 440815
1111
+ 5086 561364
1112
+ 5086 79809
1113
+ 5194 1152714
1114
+ 5194 133550
1115
+ 5194 133563
1116
+ 5194 133566
1117
+ 5194 140569
1118
+ 5348 1108050
1119
+ 5348 1114192
1120
+ 5348 1118083
1121
+ 5348 1120197
1122
+ 5348 1120858
1123
+ 5348 1123239
1124
+ 5348 1132968
1125
+ 5348 139547
1126
+ 5348 256106
1127
+ 5348 2695
1128
+ 5348 2696
1129
+ 5348 342802
1130
+ 5348 75695
1131
+ 5348 911198
1132
+ 5348 99025
1133
+ 5454 1105574
1134
+ 5454 1128425
1135
+ 5454 1130680
1136
+ 5462 1129111
1137
+ 5462 119956
1138
+ 5462 227286
1139
+ 5462 910
1140
+ 5600 1022969
1141
+ 5600 1117833
1142
+ 5600 255233
1143
+ 5600 33303
1144
+ 5600 77826
1145
+ 5869 1110520
1146
+ 5869 910
1147
+ 5959 1102625
1148
+ 5959 152226
1149
+ 5959 545647
1150
+ 5959 582511
1151
+ 5966 1102625
1152
+ 5966 1106388
1153
+ 5966 1107861
1154
+ 5966 1110390
1155
+ 5966 1114502
1156
+ 5966 68463
1157
+ 5966 86840
1158
+ 5966 8699
1159
+ 6125 1107572
1160
+ 6125 12211
1161
+ 6125 27612
1162
+ 6125 28641
1163
+ 6125 385251
1164
+ 6130 1132461
1165
+ 6130 1154123
1166
+ 6130 1154124
1167
+ 6130 671269
1168
+ 6130 675847
1169
+ 6151 1106547
1170
+ 6151 1107355
1171
+ 6151 1130567
1172
+ 6151 1385
1173
+ 6151 193742
1174
+ 6151 6152
1175
+ 6151 6155
1176
+ 6151 6213
1177
+ 6151 6214
1178
+ 6152 299195
1179
+ 6155 1126029
1180
+ 6163 1106966
1181
+ 6163 1111052
1182
+ 6163 1113739
1183
+ 6163 130
1184
+ 6163 134128
1185
+ 6163 20534
1186
+ 6163 28202
1187
+ 6163 96847
1188
+ 6169 1106406
1189
+ 6169 1114629
1190
+ 6169 1130567
1191
+ 6169 170338
1192
+ 6169 20526
1193
+ 6169 7419
1194
+ 6184 10981
1195
+ 6184 1105718
1196
+ 6184 1120731
1197
+ 6184 1136422
1198
+ 6184 13686
1199
+ 6184 27631
1200
+ 6184 3229
1201
+ 6184 399339
1202
+ 6196 1120731
1203
+ 6196 1153056
1204
+ 6196 28387
1205
+ 6196 58540
1206
+ 6196 81350
1207
+ 6196 976334
1208
+ 6209 1108329
1209
+ 6209 118259
1210
+ 6209 118260
1211
+ 6209 168410
1212
+ 6209 181782
1213
+ 6209 212930
1214
+ 6209 28485
1215
+ 6209 38480
1216
+ 6209 8213
1217
+ 6209 8875
1218
+ 6209 95579
1219
+ 6210 1120731
1220
+ 6213 10796
1221
+ 6213 1103315
1222
+ 6213 1105764
1223
+ 6213 1106406
1224
+ 6213 1106547
1225
+ 6213 1106966
1226
+ 6213 1107355
1227
+ 6213 1107455
1228
+ 6213 1108329
1229
+ 6213 1109957
1230
+ 6213 1111052
1231
+ 6213 1111230
1232
+ 6213 1111304
1233
+ 6213 1113182
1234
+ 6213 1113459
1235
+ 6213 1113614
1236
+ 6213 1116347
1237
+ 6213 1117760
1238
+ 6213 1117942
1239
+ 6213 1120020
1240
+ 6213 1122425
1241
+ 6213 1123553
1242
+ 6213 1128267
1243
+ 6213 1129096
1244
+ 6213 1129243
1245
+ 6213 1130567
1246
+ 6213 124064
1247
+ 6213 12576
1248
+ 6213 128
1249
+ 6213 13193
1250
+ 6213 134128
1251
+ 6213 1385
1252
+ 6213 13960
1253
+ 6213 153598
1254
+ 6213 161221
1255
+ 6213 17208
1256
+ 6213 193742
1257
+ 6213 195361
1258
+ 6213 20526
1259
+ 6213 20534
1260
+ 6213 218410
1261
+ 6213 23774
1262
+ 6213 241133
1263
+ 6213 28202
1264
+ 6213 28227
1265
+ 6213 28278
1266
+ 6213 28350
1267
+ 6213 28471
1268
+ 6213 28485
1269
+ 6213 293271
1270
+ 6213 299195
1271
+ 6213 299197
1272
+ 6213 353541
1273
+ 6213 35863
1274
+ 6213 38480
1275
+ 6213 399339
1276
+ 6213 434
1277
+ 6213 55968
1278
+ 6213 58540
1279
+ 6213 595056
1280
+ 6213 6151
1281
+ 6213 6155
1282
+ 6213 6163
1283
+ 6213 6184
1284
+ 6213 6210
1285
+ 6213 6214
1286
+ 6213 6215
1287
+ 6213 6220
1288
+ 6213 6224
1289
+ 6213 628667
1290
+ 6213 628668
1291
+ 6213 628815
1292
+ 6213 672064
1293
+ 6213 7419
1294
+ 6213 755217
1295
+ 6213 91975
1296
+ 6214 1105764
1297
+ 6214 1106172
1298
+ 6214 1109199
1299
+ 6214 1115886
1300
+ 6214 1126029
1301
+ 6214 1130600
1302
+ 6214 1152740
1303
+ 6214 124064
1304
+ 6214 13960
1305
+ 6214 149669
1306
+ 6214 188471
1307
+ 6214 23258
1308
+ 6214 27631
1309
+ 6214 28278
1310
+ 6214 28447
1311
+ 6214 345340
1312
+ 6214 38480
1313
+ 6214 399339
1314
+ 6214 6155
1315
+ 6214 6184
1316
+ 6214 6196
1317
+ 6214 6215
1318
+ 6214 6224
1319
+ 6214 628500
1320
+ 6214 6378
1321
+ 6214 93320
1322
+ 6214 95589
1323
+ 6214 97892
1324
+ 6215 1120170
1325
+ 6215 6224
1326
+ 6216 1113739
1327
+ 6216 1116347
1328
+ 6216 1123553
1329
+ 6216 230300
1330
+ 6216 96847
1331
+ 6216 976334
1332
+ 6220 134128
1333
+ 6220 6163
1334
+ 6220 6224
1335
+ 6224 28387
1336
+ 6224 345340
1337
+ 6224 6163
1338
+ 6238 10793
1339
+ 6238 1123991
1340
+ 6238 1130356
1341
+ 6238 84459
1342
+ 6311 1114864
1343
+ 6311 1115677
1344
+ 6311 235776
1345
+ 6311 69397
1346
+ 6318 1108656
1347
+ 6318 1119295
1348
+ 6318 1121057
1349
+ 6318 20833
1350
+ 6334 1107067
1351
+ 6334 1116268
1352
+ 6334 1152307
1353
+ 6334 1152448
1354
+ 6334 1152975
1355
+ 6334 1153169
1356
+ 6334 1153703
1357
+ 6334 200480
1358
+ 6334 20850
1359
+ 6334 3231
1360
+ 6334 444240
1361
+ 6334 46431
1362
+ 6334 68463
1363
+ 6343 1125992
1364
+ 6343 141868
1365
+ 6343 200480
1366
+ 6343 359067
1367
+ 6343 521252
1368
+ 6344 1112665
1369
+ 6344 200480
1370
+ 6346 1106103
1371
+ 6346 1112075
1372
+ 6378 1122425
1373
+ 6378 1129208
1374
+ 6378 28473
1375
+ 6385 1103162
1376
+ 6385 1129243
1377
+ 6385 17476
1378
+ 6385 28473
1379
+ 6385 55968
1380
+ 6385 6378
1381
+ 6385 682666
1382
+ 6385 892139
1383
+ 6539 1102646
1384
+ 6639 116084
1385
+ 6639 178209
1386
+ 6639 568045
1387
+ 6639 591017
1388
+ 6741 1130637
1389
+ 6741 1153160
1390
+ 6741 348437
1391
+ 6741 411092
1392
+ 6741 417017
1393
+ 6741 49895
1394
+ 6741 51909
1395
+ 6741 83725
1396
+ 6741 9708
1397
+ 6767 1106103
1398
+ 6767 1114864
1399
+ 6767 1120444
1400
+ 6767 235776
1401
+ 6767 6334
1402
+ 6767 6925
1403
+ 6767 69397
1404
+ 6771 65653
1405
+ 6775 1111240
1406
+ 6775 350319
1407
+ 6782 1123068
1408
+ 6782 463825
1409
+ 6784 100961
1410
+ 6784 1116629
1411
+ 6784 350319
1412
+ 6784 35797
1413
+ 6784 560936
1414
+ 6784 562123
1415
+ 6784 60170
1416
+ 6784 6775
1417
+ 6786 1106789
1418
+ 6786 714975
1419
+ 6814 1117348
1420
+ 6814 1125469
1421
+ 6814 158172
1422
+ 6814 293974
1423
+ 6814 300071
1424
+ 6814 315266
1425
+ 6814 37884
1426
+ 6814 390896
1427
+ 6814 445938
1428
+ 6818 1105531
1429
+ 6818 1121254
1430
+ 6818 1128425
1431
+ 6818 293974
1432
+ 6818 37884
1433
+ 6818 390896
1434
+ 6818 50336
1435
+ 6818 50337
1436
+ 6898 1123188
1437
+ 6898 124224
1438
+ 6898 12631
1439
+ 6898 431206
1440
+ 6898 6910
1441
+ 6898 78994
1442
+ 6910 1117219
1443
+ 6910 1123188
1444
+ 6910 1132083
1445
+ 6910 1152150
1446
+ 6910 1154103
1447
+ 6910 169279
1448
+ 6910 263553
1449
+ 6910 431206
1450
+ 6910 662416
1451
+ 6913 1105011
1452
+ 6913 1116336
1453
+ 6913 1131230
1454
+ 6913 1135108
1455
+ 6913 1152917
1456
+ 6913 1717
1457
+ 6913 428610
1458
+ 6913 431206
1459
+ 6913 4330
1460
+ 6913 703953
1461
+ 6917 1153811
1462
+ 6917 449841
1463
+ 6923 1155073
1464
+ 6923 187354
1465
+ 6923 20857
1466
+ 6923 308003
1467
+ 6923 6941
1468
+ 6923 93923
1469
+ 6925 1114526
1470
+ 6925 1118658
1471
+ 6925 372862
1472
+ 6925 57922
1473
+ 6925 57948
1474
+ 6935 1000012
1475
+ 6935 101660
1476
+ 6935 1106388
1477
+ 6935 1115670
1478
+ 6935 1120650
1479
+ 6935 18615
1480
+ 6935 238099
1481
+ 6935 308003
1482
+ 6939 1116922
1483
+ 6941 372862
1484
+ 7032 1109439
1485
+ 7032 1110438
1486
+ 7032 137873
1487
+ 7032 323128
1488
+ 7032 52847
1489
+ 7041 1120880
1490
+ 7047 1135082
1491
+ 7047 14549
1492
+ 7047 212930
1493
+ 7047 2663
1494
+ 7047 54844
1495
+ 7272 1136446
1496
+ 7272 7276
1497
+ 7272 7297
1498
+ 7272 763181
1499
+ 7276 763181
1500
+ 7296 763181
1501
+ 7297 7276
1502
+ 7297 763010
1503
+ 7297 763181
1504
+ 7419 1105764
1505
+ 7419 1107312
1506
+ 7419 1109581
1507
+ 7419 1113182
1508
+ 7419 1117760
1509
+ 7419 1118245
1510
+ 7419 341188
1511
+ 7430 1153287
1512
+ 7430 95586
1513
+ 7532 1121603
1514
+ 7532 1153097
1515
+ 7532 141171
1516
+ 7532 314459
1517
+ 7532 7537
1518
+ 7532 80515
1519
+ 7537 1113534
1520
+ 7537 1131348
1521
+ 7537 1153097
1522
+ 7537 141171
1523
+ 7537 314459
1524
+ 7537 409255
1525
+ 7537 7532
1526
+ 7867 1138027
1527
+ 7867 315789
1528
+ 8079 105057
1529
+ 8079 1103737
1530
+ 8079 1121867
1531
+ 8079 154982
1532
+ 8079 192850
1533
+ 8079 27250
1534
+ 8079 39124
1535
+ 8224 1108728
1536
+ 8224 1110426
1537
+ 8224 1111788
1538
+ 8224 1128531
1539
+ 8224 1132815
1540
+ 8224 11342
1541
+ 8224 1153148
1542
+ 8224 1153866
1543
+ 8224 133615
1544
+ 8224 22431
1545
+ 8224 22563
1546
+ 8224 23738
1547
+ 8224 263279
1548
+ 8224 30895
1549
+ 8224 368431
1550
+ 8224 49843
1551
+ 8224 49844
1552
+ 8224 49847
1553
+ 8224 55403
1554
+ 8224 601567
1555
+ 8224 62389
1556
+ 8224 6311
1557
+ 8224 65653
1558
+ 8224 6639
1559
+ 8224 97377
1560
+ 8581 1120059
1561
+ 8581 1132968
1562
+ 8581 2665
1563
+ 8581 75691
1564
+ 8581 75695
1565
+ 8591 1154525
1566
+ 8591 137956
1567
+ 8591 167205
1568
+ 8591 709113
1569
+ 8594 1132809
1570
+ 8594 1154525
1571
+ 8594 1213
1572
+ 8594 180187
1573
+ 8594 232605
1574
+ 8594 58268
1575
+ 8594 709113
1576
+ 8594 8591
1577
+ 8617 1116268
1578
+ 8617 12359
1579
+ 8617 175291
1580
+ 8617 36145
1581
+ 8617 52784
1582
+ 8619 175291
1583
+ 8619 36145
1584
+ 8687 1102751
1585
+ 8687 38000
1586
+ 8696 104840
1587
+ 8696 1102751
1588
+ 8699 104840
1589
+ 8699 1102751
1590
+ 8703 101145
1591
+ 8703 104840
1592
+ 8703 1102751
1593
+ 8703 1105428
1594
+ 8703 1119078
1595
+ 8703 173884
1596
+ 8703 27535
1597
+ 8703 308232
1598
+ 8703 353541
1599
+ 8703 434
1600
+ 8703 502574
1601
+ 8703 51866
1602
+ 8703 51909
1603
+ 8703 59244
1604
+ 8703 89335
1605
+ 8766 409725
1606
+ 8821 1102761
1607
+ 8821 1153811
1608
+ 8832 1102761
1609
+ 8865 103515
1610
+ 8865 1129570
1611
+ 8865 395075
1612
+ 8865 608292
1613
+ 8865 647408
1614
+ 8865 785678
1615
+ 8865 8875
1616
+ 8872 1104647
1617
+ 8872 1125092
1618
+ 8872 1152761
1619
+ 8872 1153860
1620
+ 8872 197054
1621
+ 8872 229635
1622
+ 8872 395075
1623
+ 8872 8875
1624
+ 8874 1120643
1625
+ 8874 1153816
1626
+ 8874 395075
1627
+ 8874 608292
1628
+ 8874 646809
1629
+ 8874 647447
1630
+ 8874 8875
1631
+ 8875 1129570
1632
+ 8875 1152676
1633
+ 8875 18582
1634
+ 8875 395075
1635
+ 8875 608292
1636
+ 8961 1103610
1637
+ 8961 1133390
1638
+ 9513 102879
1639
+ 9515 102879
1640
+ 9515 4804
1641
+ 9515 9513
1642
+ 9559 1102794
1643
+ 9559 252725
1644
+ 9581 1130780
1645
+ 9581 633585
1646
+ 9586 1120138
1647
+ 9586 33818
1648
+ 9708 1130539
1649
+ 9708 1153003
1650
+ 9708 136766
1651
+ 9708 136768
1652
+ 9708 181782
1653
+ 9716 1153262
1654
+ 9716 28674
1655
+ 9716 6539
1656
+ 10169 1107067
1657
+ 10169 1123867
1658
+ 10169 114189
1659
+ 10169 158614
1660
+ 10169 17798
1661
+ 10169 20850
1662
+ 10169 211875
1663
+ 10169 259126
1664
+ 10169 3231
1665
+ 10169 39126
1666
+ 10169 39131
1667
+ 10169 49660
1668
+ 10169 552469
1669
+ 10169 6334
1670
+ 10169 63477
1671
+ 10169 63486
1672
+ 10169 636098
1673
+ 10169 711598
1674
+ 10169 85452
1675
+ 10174 10186
1676
+ 10177 10169
1677
+ 10177 1112574
1678
+ 10177 12197
1679
+ 10177 12198
1680
+ 10177 12210
1681
+ 10177 124734
1682
+ 10177 15429
1683
+ 10177 164
1684
+ 10177 249858
1685
+ 10177 27606
1686
+ 10177 4804
1687
+ 10177 67415
1688
+ 10177 68495
1689
+ 10177 68505
1690
+ 10177 9515
1691
+ 10183 10186
1692
+ 10183 10430
1693
+ 10183 1108267
1694
+ 10183 1110947
1695
+ 10183 1114336
1696
+ 10183 1120713
1697
+ 10183 259772
1698
+ 10183 47570
1699
+ 10183 54550
1700
+ 10183 6378
1701
+ 10186 86840
1702
+ 10430 1120713
1703
+ 10430 3095
1704
+ 10435 1103394
1705
+ 10435 112378
1706
+ 10435 208345
1707
+ 10435 22566
1708
+ 10435 41417
1709
+ 10435 8703
1710
+ 10531 1102850
1711
+ 10531 1107567
1712
+ 10531 1129442
1713
+ 10531 1130634
1714
+ 10531 194617
1715
+ 10531 31336
1716
+ 10531 31349
1717
+ 10531 31353
1718
+ 10531 36620
1719
+ 10531 43698
1720
+ 10531 686532
1721
+ 10796 1110947
1722
+ 10796 1113934
1723
+ 10796 1135358
1724
+ 10796 1153148
1725
+ 10796 180373
1726
+ 10796 20942
1727
+ 10796 30895
1728
+ 10796 31097
1729
+ 10796 417017
1730
+ 10796 46536
1731
+ 10796 601567
1732
+ 10796 6217
1733
+ 10796 8699
1734
+ 10796 93320
1735
+ 10798 10183
1736
+ 10798 10796
1737
+ 10798 1154500
1738
+ 10798 18619
1739
+ 10798 20193
1740
+ 10798 212777
1741
+ 10798 252715
1742
+ 10798 434
1743
+ 10798 601561
1744
+ 10798 8703
1745
+ 10798 97892
1746
+ 10981 1102873
1747
+ 10981 23507
1748
+ 11093 39199
1749
+ 11148 1129835
1750
+ 11148 1131719
1751
+ 11148 193354
1752
+ 11148 25413
1753
+ 11326 11339
1754
+ 11335 1127657
1755
+ 11335 11325
1756
+ 11335 1153264
1757
+ 11335 20833
1758
+ 11335 217139
1759
+ 11335 35070
1760
+ 11335 49843
1761
+ 11335 545647
1762
+ 11335 582511
1763
+ 11337 1128256
1764
+ 11339 11326
1765
+ 11339 211432
1766
+ 11339 30901
1767
+ 11339 44017
1768
+ 11339 45061
1769
+ 11342 463825
1770
+ 11342 65650
1771
+ 11342 79809
1772
+ 12155 1126350
1773
+ 12158 12199
1774
+ 12158 148399
1775
+ 12165 1107567
1776
+ 12165 1112099
1777
+ 12169 1119471
1778
+ 12169 4637
1779
+ 12169 989397
1780
+ 12182 1059953
1781
+ 12182 1106418
1782
+ 12182 1117249
1783
+ 12182 1118764
1784
+ 12182 1153183
1785
+ 12182 12165
1786
+ 12182 12211
1787
+ 12182 155736
1788
+ 12182 157761
1789
+ 12182 219239
1790
+ 12182 28632
1791
+ 12182 28640
1792
+ 12182 28641
1793
+ 12182 309476
1794
+ 12182 321861
1795
+ 12182 429781
1796
+ 12182 4660
1797
+ 12182 5038
1798
+ 12182 65650
1799
+ 12182 94713
1800
+ 12194 27199
1801
+ 12195 1107319
1802
+ 12195 1107567
1803
+ 12195 1112099
1804
+ 12195 1131611
1805
+ 12195 1132285
1806
+ 12195 12165
1807
+ 12195 38722
1808
+ 12195 51180
1809
+ 12197 111866
1810
+ 12197 1119471
1811
+ 12197 68495
1812
+ 12198 1126350
1813
+ 12198 12158
1814
+ 12198 12199
1815
+ 12198 164
1816
+ 12198 27612
1817
+ 12198 95225
1818
+ 12199 1119471
1819
+ 12199 12247
1820
+ 12210 1112574
1821
+ 12210 12182
1822
+ 12210 4804
1823
+ 12210 57948
1824
+ 12210 6125
1825
+ 12210 67415
1826
+ 12210 77515
1827
+ 12211 12165
1828
+ 12238 101263
1829
+ 12238 1107567
1830
+ 12238 1112099
1831
+ 12238 12165
1832
+ 12247 1119471
1833
+ 12247 148399
1834
+ 12330 107569
1835
+ 12330 1120777
1836
+ 12330 1152490
1837
+ 12330 1153861
1838
+ 12330 156977
1839
+ 12330 213279
1840
+ 12330 395553
1841
+ 12330 400356
1842
+ 12330 949217
1843
+ 12337 1129683
1844
+ 12337 16451
1845
+ 12337 16470
1846
+ 12337 16474
1847
+ 12337 395725
1848
+ 12337 57764
1849
+ 12347 16451
1850
+ 12347 72101
1851
+ 12350 101811
1852
+ 12350 1104007
1853
+ 12350 1107319
1854
+ 12350 1131611
1855
+ 12350 12158
1856
+ 12350 12195
1857
+ 12350 12198
1858
+ 12350 12210
1859
+ 12350 152227
1860
+ 12350 157805
1861
+ 12350 16451
1862
+ 12350 20601
1863
+ 12350 20602
1864
+ 12350 27612
1865
+ 12350 4804
1866
+ 12350 6125
1867
+ 12350 6539
1868
+ 12350 67415
1869
+ 12350 68495
1870
+ 12359 1131634
1871
+ 12359 16451
1872
+ 12359 242637
1873
+ 12439 105057
1874
+ 12439 323128
1875
+ 12439 340078
1876
+ 12576 1071981
1877
+ 12576 1104999
1878
+ 12576 1105221
1879
+ 12576 1107674
1880
+ 12576 1129573
1881
+ 12576 127033
1882
+ 12576 135130
1883
+ 12576 229635
1884
+ 12576 28290
1885
+ 12576 416455
1886
+ 12576 56112
1887
+ 12576 56119
1888
+ 12576 56709
1889
+ 12576 574710
1890
+ 12576 575795
1891
+ 12576 62718
1892
+ 12576 63832
1893
+ 12576 83725
1894
+ 12576 8875
1895
+ 12631 1123188
1896
+ 12631 1152150
1897
+ 12631 1154103
1898
+ 12631 12638
1899
+ 12631 662416
1900
+ 12631 6898
1901
+ 12631 6910
1902
+ 12631 78994
1903
+ 12638 1123188
1904
+ 12638 119761
1905
+ 12638 263553
1906
+ 12638 4330
1907
+ 12638 662416
1908
+ 12638 6898
1909
+ 12638 6910
1910
+ 13024 899119
1911
+ 13136 1118083
1912
+ 13136 160705
1913
+ 13193 17208
1914
+ 13193 755217
1915
+ 13195 1107312
1916
+ 13195 1120731
1917
+ 13195 755217
1918
+ 13205 1105148
1919
+ 13205 13208
1920
+ 13208 1105148
1921
+ 13208 131318
1922
+ 13212 1105148
1923
+ 13212 131318
1924
+ 13212 13208
1925
+ 13212 170338
1926
+ 13212 214472
1927
+ 13212 358884
1928
+ 13212 411005
1929
+ 13213 1152143
1930
+ 13213 131318
1931
+ 13269 17476
1932
+ 13652 13654
1933
+ 13652 13656
1934
+ 13652 83746
1935
+ 13654 1115959
1936
+ 13654 119686
1937
+ 13654 83746
1938
+ 13654 987188
1939
+ 13656 1120431
1940
+ 13658 1115959
1941
+ 13658 1120431
1942
+ 13658 119686
1943
+ 13658 13656
1944
+ 13658 198443
1945
+ 13658 294239
1946
+ 13658 987188
1947
+ 13686 1107355
1948
+ 13686 1120431
1949
+ 13686 1272
1950
+ 13686 1385
1951
+ 13717 1110531
1952
+ 13717 37998
1953
+ 13717 38000
1954
+ 13885 1104379
1955
+ 13885 13917
1956
+ 13885 31043
1957
+ 13885 42847
1958
+ 13885 84459
1959
+ 13917 1120020
1960
+ 13966 13960
1961
+ 13972 1126050
1962
+ 13972 20534
1963
+ 13982 34979
1964
+ 14062 1119708
1965
+ 14062 1152358
1966
+ 14062 1152421
1967
+ 14062 1153280
1968
+ 14062 1154459
1969
+ 14062 141347
1970
+ 14062 33907
1971
+ 14062 44368
1972
+ 14062 646836
1973
+ 14062 97390
1974
+ 14062 98693
1975
+ 14083 1103016
1976
+ 14090 1103016
1977
+ 14090 643069
1978
+ 14428 1103031
1979
+ 14428 1103969
1980
+ 14428 14429
1981
+ 14428 14431
1982
+ 14428 34082
1983
+ 14428 73119
1984
+ 14429 1103031
1985
+ 14429 1103969
1986
+ 14429 1119216
1987
+ 14429 14431
1988
+ 14429 34082
1989
+ 14429 73119
1990
+ 14430 1103031
1991
+ 14430 1103969
1992
+ 14430 1119216
1993
+ 14430 14429
1994
+ 14430 14431
1995
+ 14430 34082
1996
+ 14430 73119
1997
+ 14431 1103031
1998
+ 14529 1103038
1999
+ 14529 1114864
2000
+ 14529 1119987
2001
+ 14529 239829
2002
+ 14531 1103038
2003
+ 14531 1105932
2004
+ 14531 1152308
2005
+ 14531 56167
2006
+ 14531 592830
2007
+ 14531 60682
2008
+ 14545 1103038
2009
+ 14545 14549
2010
+ 14549 1103038
2011
+ 14549 592830
2012
+ 14807 1111240
2013
+ 14807 264347
2014
+ 15076 25702
2015
+ 15076 708945
2016
+ 15429 10169
2017
+ 15429 10177
2018
+ 15429 1104007
2019
+ 15429 1107572
2020
+ 15429 1114526
2021
+ 15429 1153160
2022
+ 15429 12197
2023
+ 15429 12350
2024
+ 15429 175576
2025
+ 15429 210309
2026
+ 15429 217115
2027
+ 15429 219239
2028
+ 15429 35854
2029
+ 15429 41666
2030
+ 15429 57948
2031
+ 15429 77515
2032
+ 15429 89547
2033
+ 15429 9513
2034
+ 15429 9515
2035
+ 15431 35854
2036
+ 15670 12558
2037
+ 15889 1110024
2038
+ 15889 1118388
2039
+ 15889 1152564
2040
+ 15889 1153891
2041
+ 15889 15892
2042
+ 15889 175909
2043
+ 15889 221302
2044
+ 15892 1116146
2045
+ 15892 1118388
2046
+ 15984 158098
2047
+ 15984 189577
2048
+ 15984 308920
2049
+ 15984 714975
2050
+ 15987 1127530
2051
+ 15987 158098
2052
+ 15987 3192
2053
+ 15987 523394
2054
+ 15987 653441
2055
+ 15987 714289
2056
+ 16008 1105531
2057
+ 16008 1131165
2058
+ 16008 158098
2059
+ 16008 189571
2060
+ 16008 189572
2061
+ 16008 189577
2062
+ 16008 308920
2063
+ 16008 3191
2064
+ 16008 3192
2065
+ 16008 523394
2066
+ 16008 642827
2067
+ 16437 152219
2068
+ 16437 16470
2069
+ 16437 16474
2070
+ 16437 395725
2071
+ 16437 430329
2072
+ 16437 51831
2073
+ 16451 118436
2074
+ 16461 1105603
2075
+ 16470 1129621
2076
+ 16471 1104787
2077
+ 16471 1114992
2078
+ 16471 1126044
2079
+ 16471 16474
2080
+ 16471 273949
2081
+ 16474 16471
2082
+ 16476 1123087
2083
+ 16476 1129621
2084
+ 16476 12359
2085
+ 16476 16474
2086
+ 16485 105856
2087
+ 16485 1104787
2088
+ 16485 1105603
2089
+ 16485 1109891
2090
+ 16485 1120049
2091
+ 16485 1123087
2092
+ 16485 12347
2093
+ 16485 286500
2094
+ 16819 1131167
2095
+ 16819 1131236
2096
+ 16819 1131274
2097
+ 16819 1131312
2098
+ 16819 126793
2099
+ 16819 643003
2100
+ 16819 643069
2101
+ 16819 643221
2102
+ 16819 644093
2103
+ 16819 644334
2104
+ 16819 646195
2105
+ 16819 646286
2106
+ 16843 1152259
2107
+ 16843 1152991
2108
+ 16843 643069
2109
+ 17201 1107140
2110
+ 17201 1118245
2111
+ 17201 1126012
2112
+ 17201 17208
2113
+ 17201 184157
2114
+ 17201 32872
2115
+ 17201 95435
2116
+ 17208 1152633
2117
+ 17208 1153262
2118
+ 17208 184157
2119
+ 17208 32872
2120
+ 17208 95435
2121
+ 17242 1115291
2122
+ 17242 280876
2123
+ 17363 444191
2124
+ 17476 1103162
2125
+ 17476 1105033
2126
+ 17476 1122425
2127
+ 17476 1129208
2128
+ 17476 170338
2129
+ 17476 28456
2130
+ 17476 33013
2131
+ 17476 682666
2132
+ 17476 892139
2133
+ 17477 1103162
2134
+ 17488 1103162
2135
+ 17798 1119987
2136
+ 17798 1152308
2137
+ 17798 3231
2138
+ 17798 323128
2139
+ 17798 39131
2140
+ 17798 56167
2141
+ 17811 1107136
2142
+ 17811 63486
2143
+ 17821 245955
2144
+ 18251 1106052
2145
+ 18313 249421
2146
+ 18532 86923
2147
+ 18536 1106854
2148
+ 18536 424540
2149
+ 18536 86923
2150
+ 18615 1000012
2151
+ 18615 4660
2152
+ 18615 582343
2153
+ 18619 1153091
2154
+ 18619 18615
2155
+ 18619 4660
2156
+ 18770 28964
2157
+ 18770 531348
2158
+ 18770 531351
2159
+ 18773 167656
2160
+ 18773 88356
2161
+ 18774 73146
2162
+ 18777 103537
2163
+ 18777 1112686
2164
+ 18777 116790
2165
+ 18777 173863
2166
+ 18777 18774
2167
+ 18777 33013
2168
+ 18777 345340
2169
+ 18777 445938
2170
+ 18777 510718
2171
+ 18777 66794
2172
+ 18777 73146
2173
+ 18777 79817
2174
+ 18777 94713
2175
+ 18781 1108175
2176
+ 18781 18785
2177
+ 18781 86840
2178
+ 18811 1106401
2179
+ 18811 1112686
2180
+ 18811 20920
2181
+ 18812 20920
2182
+ 18812 510715
2183
+ 18815 1104449
2184
+ 18815 20920
2185
+ 18832 1122425
2186
+ 18832 18833
2187
+ 18832 682666
2188
+ 18832 81350
2189
+ 18834 1152740
2190
+ 18834 1152944
2191
+ 18834 18833
2192
+ 19045 593210
2193
+ 19045 593328
2194
+ 19045 593329
2195
+ 19045 87363
2196
+ 19231 1107572
2197
+ 19231 1153736
2198
+ 19231 12960
2199
+ 19231 18619
2200
+ 19231 30934
2201
+ 19231 686061
2202
+ 19621 1106287
2203
+ 19621 1114153
2204
+ 19621 1114442
2205
+ 19621 1126044
2206
+ 19621 1128846
2207
+ 19621 1131464
2208
+ 19621 1135082
2209
+ 19621 1135137
2210
+ 19621 123825
2211
+ 19621 184918
2212
+ 19621 23448
2213
+ 19621 240791
2214
+ 19621 330148
2215
+ 19621 42847
2216
+ 19621 49482
2217
+ 19621 6184
2218
+ 19621 62347
2219
+ 19621 628888
2220
+ 19621 631052
2221
+ 19621 649730
2222
+ 19621 649739
2223
+ 19621 66990
2224
+ 19621 684372
2225
+ 19621 7276
2226
+ 19621 7297
2227
+ 19621 763009
2228
+ 19621 83826
2229
+ 19621 853116
2230
+ 19621 948147
2231
+ 19621 948299
2232
+ 19621 950052
2233
+ 19697 131318
2234
+ 19697 239800
2235
+ 19697 32698
2236
+ 19697 40124
2237
+ 19697 95718
2238
+ 20178 38829
2239
+ 20178 64271
2240
+ 20178 91853
2241
+ 20179 20178
2242
+ 20179 91852
2243
+ 20179 91853
2244
+ 20179 95188
2245
+ 20180 91853
2246
+ 20180 943
2247
+ 20193 1108597
2248
+ 20193 1114777
2249
+ 20193 1116397
2250
+ 20193 1116839
2251
+ 20193 1119180
2252
+ 20193 112813
2253
+ 20193 1130653
2254
+ 20193 1130657
2255
+ 20193 1138091
2256
+ 20193 1152244
2257
+ 20193 1153877
2258
+ 20193 1153879
2259
+ 20193 1153889
2260
+ 20193 144330
2261
+ 20193 3085
2262
+ 20193 30973
2263
+ 20193 395725
2264
+ 20193 5062
2265
+ 20193 566488
2266
+ 20193 566653
2267
+ 20193 566664
2268
+ 20193 91853
2269
+ 20526 1103315
2270
+ 20526 1118092
2271
+ 20528 1103315
2272
+ 20528 1103676
2273
+ 20528 1107067
2274
+ 20534 1103315
2275
+ 20534 1106966
2276
+ 20534 1107455
2277
+ 20534 1111052
2278
+ 20534 23774
2279
+ 20534 70442
2280
+ 20534 7419
2281
+ 20584 1106849
2282
+ 20584 1111788
2283
+ 20584 1118823
2284
+ 20584 20592
2285
+ 20584 20593
2286
+ 20584 235776
2287
+ 20584 389715
2288
+ 20584 6311
2289
+ 20592 20593
2290
+ 20601 1108167
2291
+ 20601 1118209
2292
+ 20601 1121537
2293
+ 20601 12158
2294
+ 20601 12199
2295
+ 20601 12247
2296
+ 20601 124734
2297
+ 20601 20602
2298
+ 20601 25805
2299
+ 20601 42207
2300
+ 20601 95225
2301
+ 20602 1108167
2302
+ 20602 1121537
2303
+ 20602 12155
2304
+ 20602 12158
2305
+ 20602 12199
2306
+ 20602 12247
2307
+ 20602 20601
2308
+ 20602 42207
2309
+ 20602 95225
2310
+ 20821 1127851
2311
+ 20821 372862
2312
+ 20857 1127863
2313
+ 20857 1155073
2314
+ 20923 1115701
2315
+ 20923 1116530
2316
+ 20923 20924
2317
+ 20923 289885
2318
+ 20923 294030
2319
+ 20924 1108267
2320
+ 20924 1113934
2321
+ 20924 1115701
2322
+ 20924 289885
2323
+ 20924 294030
2324
+ 20924 521207
2325
+ 20972 1116181
2326
+ 22229 1103383
2327
+ 22229 1107418
2328
+ 22229 1112911
2329
+ 22229 1128369
2330
+ 22229 144701
2331
+ 22229 190697
2332
+ 22229 22241
2333
+ 22229 243483
2334
+ 22229 459216
2335
+ 22229 593105
2336
+ 22229 595193
2337
+ 22241 1103383
2338
+ 22241 1107418
2339
+ 22241 1128369
2340
+ 22241 595193
2341
+ 22386 1107010
2342
+ 22386 1128407
2343
+ 22386 207395
2344
+ 22386 310530
2345
+ 22386 38839
2346
+ 22386 38845
2347
+ 22386 38846
2348
+ 22386 3932
2349
+ 22431 1110426
2350
+ 22431 144330
2351
+ 22431 49843
2352
+ 22431 49844
2353
+ 22431 49847
2354
+ 22431 6639
2355
+ 22563 10435
2356
+ 22563 107251
2357
+ 22563 107252
2358
+ 22563 1103394
2359
+ 22563 1120962
2360
+ 22563 1121459
2361
+ 22563 1123926
2362
+ 22563 12439
2363
+ 22563 13686
2364
+ 22563 1786
2365
+ 22563 22564
2366
+ 22563 22566
2367
+ 22563 3220
2368
+ 22563 36140
2369
+ 22563 389715
2370
+ 22563 63915
2371
+ 22563 6767
2372
+ 22563 6771
2373
+ 22563 94229
2374
+ 22564 10435
2375
+ 22564 1103394
2376
+ 22564 22566
2377
+ 22566 10435
2378
+ 22566 1103394
2379
+ 22835 1110563
2380
+ 22835 39904
2381
+ 22869 22876
2382
+ 22874 22876
2383
+ 22875 1110947
2384
+ 22875 1113934
2385
+ 22875 22876
2386
+ 22883 22876
2387
+ 22886 1107367
2388
+ 22886 1120444
2389
+ 22886 28447
2390
+ 23069 23070
2391
+ 23069 74700
2392
+ 23070 1116044
2393
+ 23070 134307
2394
+ 23070 134316
2395
+ 23070 74698
2396
+ 23070 87915
2397
+ 23116 1105433
2398
+ 23116 1111978
2399
+ 23116 40124
2400
+ 23116 41666
2401
+ 23116 576257
2402
+ 23258 1106052
2403
+ 23258 168410
2404
+ 23258 18251
2405
+ 23502 184918
2406
+ 23502 23507
2407
+ 23507 1109392
2408
+ 23507 13717
2409
+ 23507 152731
2410
+ 23507 217852
2411
+ 23507 23502
2412
+ 23507 649731
2413
+ 23507 93320
2414
+ 23546 27230
2415
+ 23738 101662
2416
+ 23738 101811
2417
+ 23738 1118764
2418
+ 23738 11325
2419
+ 23738 11342
2420
+ 23738 1153064
2421
+ 23738 1153148
2422
+ 23738 189574
2423
+ 23738 22563
2424
+ 23738 27249
2425
+ 23738 27250
2426
+ 23738 411092
2427
+ 23738 65650
2428
+ 23738 73146
2429
+ 23738 84020
2430
+ 23774 1106406
2431
+ 23774 1107455
2432
+ 23774 7432
2433
+ 24043 1111265
2434
+ 24043 15076
2435
+ 24043 928873
2436
+ 24476 1103499
2437
+ 24476 1106546
2438
+ 24476 1153024
2439
+ 24530 1109581
2440
+ 24966 1104449
2441
+ 24966 1105344
2442
+ 24966 1105433
2443
+ 24966 1106370
2444
+ 24966 1106671
2445
+ 24966 1123576
2446
+ 24966 1131149
2447
+ 24966 1131267
2448
+ 24966 1152194
2449
+ 24966 1154042
2450
+ 24966 124828
2451
+ 24966 131042
2452
+ 24966 131318
2453
+ 24966 145134
2454
+ 24966 145176
2455
+ 24966 19697
2456
+ 24966 197452
2457
+ 24966 202639
2458
+ 24966 23116
2459
+ 24966 239800
2460
+ 24966 27627
2461
+ 24966 40124
2462
+ 24966 63549
2463
+ 24966 641976
2464
+ 24966 65212
2465
+ 24966 671293
2466
+ 24966 79809
2467
+ 24966 92065
2468
+ 24966 95719
2469
+ 24974 1104258
2470
+ 24974 1112723
2471
+ 24974 131042
2472
+ 24974 34315
2473
+ 24974 40125
2474
+ 24974 6771
2475
+ 25181 1152277
2476
+ 25181 1152673
2477
+ 25181 1154251
2478
+ 25181 25184
2479
+ 25181 27174
2480
+ 25181 96335
2481
+ 25184 285675
2482
+ 25184 385572
2483
+ 25702 1108834
2484
+ 25702 1118848
2485
+ 25702 1136397
2486
+ 25702 1153897
2487
+ 25702 147870
2488
+ 25702 202639
2489
+ 25702 675649
2490
+ 25702 910
2491
+ 25772 1104769
2492
+ 25772 1105932
2493
+ 25772 1122580
2494
+ 25772 1126503
2495
+ 25772 1997
2496
+ 25772 641956
2497
+ 25791 28202
2498
+ 25791 45212
2499
+ 25794 582343
2500
+ 25805 1108167
2501
+ 25805 1110028
2502
+ 25805 1121063
2503
+ 25805 385251
2504
+ 26850 1114605
2505
+ 27174 180373
2506
+ 27174 25184
2507
+ 27174 35343
2508
+ 27174 96335
2509
+ 27199 148399
2510
+ 27199 248119
2511
+ 27203 1106418
2512
+ 27203 1118209
2513
+ 27203 148399
2514
+ 27230 23545
2515
+ 27241 1106492
2516
+ 27241 1116268
2517
+ 27243 1104851
2518
+ 27243 59045
2519
+ 27246 1110390
2520
+ 27249 368431
2521
+ 27249 8079
2522
+ 27510 1110998
2523
+ 27510 1128990
2524
+ 27510 1152143
2525
+ 27510 188318
2526
+ 27514 1152143
2527
+ 27530 1106630
2528
+ 27530 1128542
2529
+ 27530 27531
2530
+ 27530 592826
2531
+ 27530 66594
2532
+ 27531 1106370
2533
+ 27531 763009
2534
+ 27535 1112026
2535
+ 27535 13686
2536
+ 27535 173884
2537
+ 27535 308232
2538
+ 27535 34961
2539
+ 27543 1106630
2540
+ 27543 1135125
2541
+ 27543 27531
2542
+ 27606 111866
2543
+ 27606 124734
2544
+ 27606 249858
2545
+ 27612 1118209
2546
+ 27612 12198
2547
+ 27623 105899
2548
+ 27623 1104182
2549
+ 27623 1126029
2550
+ 27623 27632
2551
+ 27623 28254
2552
+ 27623 686015
2553
+ 27623 686030
2554
+ 27623 686061
2555
+ 27623 75674
2556
+ 27627 105899
2557
+ 27627 116021
2558
+ 27627 18619
2559
+ 27627 23116
2560
+ 27627 27632
2561
+ 27627 28254
2562
+ 27627 686015
2563
+ 27627 686030
2564
+ 27627 686061
2565
+ 27631 20528
2566
+ 27631 28254
2567
+ 27631 55968
2568
+ 27632 28254
2569
+ 27895 105057
2570
+ 27895 1103676
2571
+ 27895 1122580
2572
+ 27895 112378
2573
+ 27895 1132706
2574
+ 27895 1786
2575
+ 27895 23738
2576
+ 28026 5064
2577
+ 28026 5069
2578
+ 28202 1114629
2579
+ 28202 1128267
2580
+ 28202 325497
2581
+ 28227 20526
2582
+ 28227 6169
2583
+ 28230 1108267
2584
+ 28230 1123756
2585
+ 28249 1116347
2586
+ 28249 1129096
2587
+ 28249 628668
2588
+ 28254 105899
2589
+ 28254 1118092
2590
+ 28254 686015
2591
+ 28254 686061
2592
+ 28265 1152436
2593
+ 28265 943
2594
+ 28267 1152896
2595
+ 28278 1107312
2596
+ 28287 1106547
2597
+ 28287 1107355
2598
+ 28287 128540
2599
+ 28287 1385
2600
+ 28287 308529
2601
+ 28287 387795
2602
+ 28287 567005
2603
+ 28287 56709
2604
+ 28290 1104999
2605
+ 28290 1107674
2606
+ 28290 28287
2607
+ 28290 308529
2608
+ 28290 56709
2609
+ 28290 63832
2610
+ 28336 108047
2611
+ 28350 1109957
2612
+ 28350 1113459
2613
+ 28350 1129243
2614
+ 28350 13193
2615
+ 28350 241133
2616
+ 28350 28227
2617
+ 28350 341188
2618
+ 28350 6210
2619
+ 28350 6220
2620
+ 28350 628667
2621
+ 28350 628668
2622
+ 28350 95579
2623
+ 28359 35863
2624
+ 28385 1106112
2625
+ 28385 1125895
2626
+ 28385 118558
2627
+ 28387 1107312
2628
+ 28389 353541
2629
+ 28412 1128430
2630
+ 28412 27631
2631
+ 28412 6217
2632
+ 28412 6220
2633
+ 28447 1107367
2634
+ 28447 1120444
2635
+ 28447 194645
2636
+ 28471 91975
2637
+ 28485 168410
2638
+ 28485 23258
2639
+ 28487 1153056
2640
+ 28487 128
2641
+ 28487 206259
2642
+ 28487 8213
2643
+ 28487 95586
2644
+ 28489 13193
2645
+ 28489 6210
2646
+ 28491 1152910
2647
+ 28491 153598
2648
+ 28491 341188
2649
+ 28491 782486
2650
+ 28504 1139928
2651
+ 28504 1153287
2652
+ 28504 131315
2653
+ 28504 365294
2654
+ 28504 7430
2655
+ 28504 95589
2656
+ 28542 124064
2657
+ 28542 206259
2658
+ 28632 32260
2659
+ 28640 1059953
2660
+ 28640 28641
2661
+ 28649 12182
2662
+ 28649 155736
2663
+ 28649 155738
2664
+ 28851 54131
2665
+ 28851 578669
2666
+ 28851 595157
2667
+ 28957 103537
2668
+ 28957 1105531
2669
+ 28957 159897
2670
+ 28957 189577
2671
+ 28957 28964
2672
+ 28957 35922
2673
+ 28957 66794
2674
+ 28957 88356
2675
+ 28957 94713
2676
+ 28964 1125402
2677
+ 28964 1125944
2678
+ 29492 1112426
2679
+ 29492 1122574
2680
+ 29492 131117
2681
+ 29492 144408
2682
+ 29492 152219
2683
+ 29492 29708
2684
+ 29492 3229
2685
+ 29492 400473
2686
+ 29708 131315
2687
+ 29723 131315
2688
+ 29723 300071
2689
+ 29723 35905
2690
+ 29723 6818
2691
+ 29738 155277
2692
+ 30817 1120211
2693
+ 30817 3229
2694
+ 30817 631052
2695
+ 30817 75691
2696
+ 30895 1152277
2697
+ 30895 1152673
2698
+ 30895 1154251
2699
+ 30895 144679
2700
+ 30895 30901
2701
+ 30934 12960
2702
+ 31055 1106630
2703
+ 31083 1123068
2704
+ 31083 48066
2705
+ 31105 1105672
2706
+ 31105 175291
2707
+ 31336 1129442
2708
+ 31336 31349
2709
+ 31336 686532
2710
+ 31349 686532
2711
+ 31353 10531
2712
+ 31353 1063773
2713
+ 31353 1107567
2714
+ 31353 1123576
2715
+ 31353 1124844
2716
+ 31353 1129442
2717
+ 31353 1129608
2718
+ 31353 1135746
2719
+ 31353 1152162
2720
+ 31353 1152272
2721
+ 31353 1152904
2722
+ 31353 194617
2723
+ 31353 286562
2724
+ 31353 31336
2725
+ 31353 31349
2726
+ 31353 31927
2727
+ 31353 43698
2728
+ 31353 686532
2729
+ 31353 686559
2730
+ 31479 1115701
2731
+ 31479 114189
2732
+ 31479 14549
2733
+ 31479 20592
2734
+ 31479 289885
2735
+ 31479 294030
2736
+ 31479 39165
2737
+ 31483 1131137
2738
+ 31483 118682
2739
+ 31483 39126
2740
+ 31483 39165
2741
+ 31489 1130780
2742
+ 31489 1152150
2743
+ 31489 227286
2744
+ 31489 40583
2745
+ 31489 40605
2746
+ 31489 632796
2747
+ 31489 632874
2748
+ 31489 632935
2749
+ 31489 633585
2750
+ 31489 633721
2751
+ 31489 9581
2752
+ 31769 67245
2753
+ 31769 67246
2754
+ 31863 358894
2755
+ 31863 91581
2756
+ 31927 1124844
2757
+ 31927 1129572
2758
+ 31927 194617
2759
+ 31927 31932
2760
+ 31932 194617
2761
+ 32083 1113995
2762
+ 32083 1120962
2763
+ 32083 1153933
2764
+ 32083 200630
2765
+ 32083 31769
2766
+ 32083 346292
2767
+ 32083 35061
2768
+ 32083 45605
2769
+ 32083 6771
2770
+ 32083 688361
2771
+ 32260 62274
2772
+ 32260 94713
2773
+ 32276 15076
2774
+ 32276 174418
2775
+ 32276 39199
2776
+ 32276 636500
2777
+ 32276 636511
2778
+ 32276 84695
2779
+ 32688 1717
2780
+ 32688 69418
2781
+ 32698 95719
2782
+ 32872 1118245
2783
+ 33231 1105531
2784
+ 33231 1121254
2785
+ 33231 1132887
2786
+ 33231 158172
2787
+ 33231 293974
2788
+ 33231 300071
2789
+ 33231 315266
2790
+ 33231 445938
2791
+ 33301 1022969
2792
+ 33301 33303
2793
+ 33325 1110256
2794
+ 33325 12960
2795
+ 33325 429781
2796
+ 33412 124296
2797
+ 33412 211875
2798
+ 33412 34708
2799
+ 33818 1120138
2800
+ 33818 1123087
2801
+ 33818 78549
2802
+ 33818 78552
2803
+ 33818 78557
2804
+ 33823 1119004
2805
+ 33823 33818
2806
+ 33823 78549
2807
+ 33823 78552
2808
+ 33823 78557
2809
+ 33895 1103960
2810
+ 33895 1153577
2811
+ 33895 1154176
2812
+ 33895 33904
2813
+ 33895 593813
2814
+ 33895 82087
2815
+ 33904 1103960
2816
+ 33904 1110546
2817
+ 33907 1103960
2818
+ 33907 1134022
2819
+ 33907 1136814
2820
+ 33907 593091
2821
+ 33907 593813
2822
+ 34082 1103969
2823
+ 34082 1119216
2824
+ 34257 1106771
2825
+ 34257 1111186
2826
+ 34257 1114398
2827
+ 34257 1115456
2828
+ 34257 1116974
2829
+ 34257 1122642
2830
+ 34257 1153003
2831
+ 34257 192870
2832
+ 34257 34263
2833
+ 34257 34266
2834
+ 34257 368605
2835
+ 34257 87482
2836
+ 34257 90655
2837
+ 34263 1122642
2838
+ 34263 87482
2839
+ 34263 90655
2840
+ 34266 1122642
2841
+ 34266 34263
2842
+ 34266 90655
2843
+ 34315 1103979
2844
+ 34315 40125
2845
+ 34355 1103979
2846
+ 34708 102406
2847
+ 34708 120039
2848
+ 34708 211432
2849
+ 34961 22883
2850
+ 34961 31043
2851
+ 34979 1104007
2852
+ 34979 1106418
2853
+ 34979 13982
2854
+ 35061 1113438
2855
+ 35061 1152761
2856
+ 35061 1153860
2857
+ 35061 144701
2858
+ 35061 210871
2859
+ 35061 22229
2860
+ 35061 240791
2861
+ 35061 263498
2862
+ 35061 45605
2863
+ 35061 48766
2864
+ 35061 503871
2865
+ 35061 682815
2866
+ 35335 168958
2867
+ 35335 35343
2868
+ 35335 59772
2869
+ 35343 1118332
2870
+ 35490 1104031
2871
+ 35490 1116410
2872
+ 35490 64271
2873
+ 35490 95188
2874
+ 35778 108962
2875
+ 35778 108983
2876
+ 35778 1108389
2877
+ 35778 1125469
2878
+ 35778 1919
2879
+ 35778 519318
2880
+ 35778 73146
2881
+ 35797 100961
2882
+ 35797 1050679
2883
+ 35797 1110998
2884
+ 35797 1116629
2885
+ 35797 1128974
2886
+ 35797 188318
2887
+ 35797 399370
2888
+ 35797 60169
2889
+ 35797 60170
2890
+ 35797 627024
2891
+ 35852 1035
2892
+ 35852 1113438
2893
+ 35852 41732
2894
+ 35852 486840
2895
+ 35863 134060
2896
+ 35863 20972
2897
+ 35863 28359
2898
+ 35905 1152162
2899
+ 35905 1152272
2900
+ 35905 1152904
2901
+ 35905 29723
2902
+ 35922 1105116
2903
+ 35922 1140547
2904
+ 35922 1152162
2905
+ 35922 1152272
2906
+ 35922 1152904
2907
+ 35922 194223
2908
+ 35922 390894
2909
+ 35922 390896
2910
+ 35922 390922
2911
+ 35922 396412
2912
+ 35922 50336
2913
+ 35922 50337
2914
+ 35922 66982
2915
+ 36131 1152633
2916
+ 36131 17208
2917
+ 36131 77438
2918
+ 36140 105057
2919
+ 36140 1104055
2920
+ 36140 112378
2921
+ 36140 12439
2922
+ 36140 22563
2923
+ 36140 27249
2924
+ 36140 323128
2925
+ 36140 350373
2926
+ 36140 35797
2927
+ 36140 46500
2928
+ 36140 57764
2929
+ 36140 63915
2930
+ 36145 1104055
2931
+ 36145 1105672
2932
+ 36145 1116268
2933
+ 36145 272720
2934
+ 36145 52784
2935
+ 36162 1132815
2936
+ 36162 1152307
2937
+ 36162 1152448
2938
+ 36162 1152975
2939
+ 36162 1153703
2940
+ 36162 197452
2941
+ 36162 20528
2942
+ 36167 20528
2943
+ 36620 1128430
2944
+ 36620 120039
2945
+ 36620 189620
2946
+ 36802 1108389
2947
+ 36802 130
2948
+ 36802 189856
2949
+ 36802 37888
2950
+ 36802 589923
2951
+ 36802 590022
2952
+ 37483 1130539
2953
+ 37483 217852
2954
+ 37483 2440
2955
+ 37483 5959
2956
+ 37483 63931
2957
+ 37541 1119140
2958
+ 37541 260979
2959
+ 37879 1105116
2960
+ 37884 300071
2961
+ 37888 1108389
2962
+ 37888 1125469
2963
+ 37888 1152633
2964
+ 37888 293974
2965
+ 37888 77438
2966
+ 38205 108047
2967
+ 38205 1128997
2968
+ 38205 1129610
2969
+ 38205 1153942
2970
+ 38205 117316
2971
+ 38205 592975
2972
+ 38205 592986
2973
+ 38205 593060
2974
+ 38205 595056
2975
+ 38205 606647
2976
+ 38205 61069
2977
+ 38480 1104182
2978
+ 38537 1131270
2979
+ 38537 1131277
2980
+ 38537 137868
2981
+ 38537 153063
2982
+ 38537 642847
2983
+ 38537 646195
2984
+ 38722 1106172
2985
+ 38722 1135746
2986
+ 38722 5038
2987
+ 38722 51180
2988
+ 38722 65650
2989
+ 38722 81350
2990
+ 38771 1104191
2991
+ 38829 1107010
2992
+ 38829 1116397
2993
+ 38829 1152244
2994
+ 38839 310530
2995
+ 38845 1107010
2996
+ 38845 1110579
2997
+ 38846 1128407
2998
+ 38846 38845
2999
+ 39126 1107067
3000
+ 39126 88356
3001
+ 39127 1105932
3002
+ 39127 1128881
3003
+ 39127 1128927
3004
+ 39127 1128935
3005
+ 39127 116081
3006
+ 39127 116084
3007
+ 39127 116087
3008
+ 39127 195150
3009
+ 39127 277263
3010
+ 39127 3231
3011
+ 39127 46476
3012
+ 39127 49660
3013
+ 39127 52835
3014
+ 39127 592826
3015
+ 39127 592830
3016
+ 39127 75972
3017
+ 39130 346243
3018
+ 39130 36620
3019
+ 39130 39131
3020
+ 39130 521252
3021
+ 39131 1106330
3022
+ 39131 1131728
3023
+ 39131 3231
3024
+ 39131 6334
3025
+ 39165 1131137
3026
+ 39165 118682
3027
+ 39165 39126
3028
+ 39199 39210
3029
+ 39199 66982
3030
+ 39199 66990
3031
+ 39210 66982
3032
+ 39210 66986
3033
+ 39403 130
3034
+ 39474 1694
3035
+ 39890 1123689
3036
+ 39890 1154229
3037
+ 39890 1154232
3038
+ 39890 1154233
3039
+ 39890 149669
3040
+ 39890 162664
3041
+ 39890 189571
3042
+ 39890 242663
3043
+ 39890 294030
3044
+ 39890 3191
3045
+ 39890 51045
3046
+ 39890 521855
3047
+ 39890 523394
3048
+ 39890 559804
3049
+ 39890 653441
3050
+ 39890 714256
3051
+ 39890 714289
3052
+ 39890 714975
3053
+ 40124 1104258
3054
+ 40124 1112723
3055
+ 40125 1104258
3056
+ 40131 118079
3057
+ 40135 118079
3058
+ 40135 13686
3059
+ 40151 1104261
3060
+ 40151 1132418
3061
+ 40151 1152307
3062
+ 40151 1152448
3063
+ 40151 1152975
3064
+ 40151 1153703
3065
+ 40151 288
3066
+ 40151 49660
3067
+ 40151 671293
3068
+ 40605 40583
3069
+ 40605 633721
3070
+ 40605 884094
3071
+ 40886 1121459
3072
+ 40886 112378
3073
+ 40886 1131728
3074
+ 40886 141868
3075
+ 40886 145215
3076
+ 40886 429805
3077
+ 40886 654177
3078
+ 41216 1104300
3079
+ 41417 1108329
3080
+ 41417 1113551
3081
+ 41417 128383
3082
+ 41666 943087
3083
+ 41714 1033
3084
+ 41714 1110515
3085
+ 41714 144212
3086
+ 41714 182094
3087
+ 41714 190697
3088
+ 41714 190706
3089
+ 41714 197054
3090
+ 41714 44455
3091
+ 41714 568857
3092
+ 41714 594047
3093
+ 41714 61069
3094
+ 42156 1116594
3095
+ 42156 1118120
3096
+ 42156 1152179
3097
+ 42156 340299
3098
+ 42207 219239
3099
+ 42209 27199
3100
+ 42221 248119
3101
+ 42221 27199
3102
+ 42221 42209
3103
+ 42221 57948
3104
+ 42221 989397
3105
+ 42847 1104379
3106
+ 42848 1104379
3107
+ 42848 1116835
3108
+ 43165 1131195
3109
+ 43186 1135894
3110
+ 43186 152731
3111
+ 43186 16461
3112
+ 43639 469504
3113
+ 43639 99025
3114
+ 43698 1129442
3115
+ 43698 31349
3116
+ 43698 686532
3117
+ 44017 1106492
3118
+ 44017 206524
3119
+ 44017 48075
3120
+ 44121 1104435
3121
+ 44368 1128227
3122
+ 44455 1128985
3123
+ 44455 128540
3124
+ 44455 227178
3125
+ 44455 387795
3126
+ 44455 41714
3127
+ 44455 568857
3128
+ 44514 210871
3129
+ 44514 253971
3130
+ 44514 606479
3131
+ 45052 1131266
3132
+ 45052 27250
3133
+ 45188 1130929
3134
+ 45188 192734
3135
+ 45188 350362
3136
+ 45188 45189
3137
+ 45188 976284
3138
+ 45189 1105450
3139
+ 45189 1106401
3140
+ 45189 1132385
3141
+ 45189 192734
3142
+ 45189 192850
3143
+ 45189 272720
3144
+ 45189 45188
3145
+ 45189 976284
3146
+ 45212 1105764
3147
+ 45212 120013
3148
+ 45533 1104495
3149
+ 45533 1106771
3150
+ 45533 1115456
3151
+ 45533 1116974
3152
+ 45533 34266
3153
+ 45533 87482
3154
+ 45603 1104647
3155
+ 45603 1125092
3156
+ 45605 1033
3157
+ 45605 1035
3158
+ 45605 1131639
3159
+ 45605 144212
3160
+ 45605 190706
3161
+ 45605 240791
3162
+ 45605 503871
3163
+ 45605 682815
3164
+ 45605 975567
3165
+ 46079 1152569
3166
+ 46079 69284
3167
+ 46452 1153091
3168
+ 46452 582343
3169
+ 46468 27249
3170
+ 46470 1105450
3171
+ 46491 107251
3172
+ 46491 107252
3173
+ 46491 1105672
3174
+ 46491 1118823
3175
+ 46491 1120169
3176
+ 46491 1152290
3177
+ 46491 137380
3178
+ 46491 308232
3179
+ 46491 37541
3180
+ 46491 389715
3181
+ 46491 46547
3182
+ 46491 51834
3183
+ 46500 57764
3184
+ 46501 1153275
3185
+ 46501 57764
3186
+ 46547 107251
3187
+ 46547 1118823
3188
+ 46547 1786
3189
+ 46547 389715
3190
+ 46887 1111788
3191
+ 46887 1153106
3192
+ 46887 235776
3193
+ 46887 45212
3194
+ 46887 6311
3195
+ 47570 385067
3196
+ 47682 1125393
3197
+ 47682 47683
3198
+ 47682 47684
3199
+ 47839 1124837
3200
+ 48550 133563
3201
+ 48550 227286
3202
+ 48555 133563
3203
+ 48555 48550
3204
+ 48764 1104647
3205
+ 48764 1125092
3206
+ 48766 1104647
3207
+ 48766 595056
3208
+ 48768 1104647
3209
+ 48781 1120643
3210
+ 48781 1134865
3211
+ 48781 397488
3212
+ 48781 423816
3213
+ 49482 1112369
3214
+ 49482 217984
3215
+ 49482 631052
3216
+ 49482 7297
3217
+ 49660 3237
3218
+ 49660 66594
3219
+ 49720 49753
3220
+ 49753 49720
3221
+ 49811 3233
3222
+ 49811 463825
3223
+ 49843 1106388
3224
+ 49843 49844
3225
+ 49843 49847
3226
+ 49844 1127851
3227
+ 49847 49844
3228
+ 50336 13269
3229
+ 50336 35922
3230
+ 50336 390894
3231
+ 50336 50337
3232
+ 50336 683355
3233
+ 50337 13269
3234
+ 50337 390894
3235
+ 50337 396412
3236
+ 50354 123556
3237
+ 50354 14807
3238
+ 50354 289088
3239
+ 50381 62274
3240
+ 50807 1104749
3241
+ 50838 1126503
3242
+ 50838 25794
3243
+ 50980 73972
3244
+ 51045 242663
3245
+ 51049 1134320
3246
+ 51049 1154232
3247
+ 51049 242663
3248
+ 51049 39890
3249
+ 51049 51045
3250
+ 51052 242663
3251
+ 51052 51045
3252
+ 51180 1107319
3253
+ 51180 12195
3254
+ 51180 12350
3255
+ 51180 50381
3256
+ 51866 1119078
3257
+ 51866 22883
3258
+ 51866 27535
3259
+ 51866 34961
3260
+ 51879 1114664
3261
+ 51879 22883
3262
+ 51879 51866
3263
+ 51879 51909
3264
+ 51909 1105428
3265
+ 51909 173884
3266
+ 51909 502574
3267
+ 51934 14545
3268
+ 52000 1104809
3269
+ 52000 52007
3270
+ 52003 1104809
3271
+ 52003 1112194
3272
+ 52003 52000
3273
+ 52007 1104809
3274
+ 52515 300806
3275
+ 52515 39199
3276
+ 52515 446271
3277
+ 52784 1104851
3278
+ 52835 1115471
3279
+ 52847 1131471
3280
+ 52847 1153811
3281
+ 53942 1117184
3282
+ 53942 56167
3283
+ 54129 108047
3284
+ 54129 1128291
3285
+ 54129 1128319
3286
+ 54129 1136791
3287
+ 54129 117315
3288
+ 54129 117316
3289
+ 54129 17477
3290
+ 54129 28336
3291
+ 54129 578645
3292
+ 54129 578646
3293
+ 54129 578649
3294
+ 54129 578780
3295
+ 54129 593022
3296
+ 54129 594543
3297
+ 54131 1128982
3298
+ 54131 1153897
3299
+ 54131 141324
3300
+ 54131 243483
3301
+ 54131 459213
3302
+ 54131 459214
3303
+ 54131 578780
3304
+ 54131 593859
3305
+ 54131 593942
3306
+ 54131 59715
3307
+ 54131 66563
3308
+ 54132 1117476
3309
+ 54132 1128985
3310
+ 54132 578780
3311
+ 54132 579008
3312
+ 54132 593921
3313
+ 54132 594387
3314
+ 54132 59715
3315
+ 54132 62634
3316
+ 54550 5600
3317
+ 54844 1104946
3318
+ 55403 1128531
3319
+ 55770 1114777
3320
+ 55770 208345
3321
+ 55770 521207
3322
+ 55801 208345
3323
+ 55968 892139
3324
+ 56112 1104999
3325
+ 56112 1107674
3326
+ 56112 127033
3327
+ 56112 56115
3328
+ 56112 56119
3329
+ 56112 63832
3330
+ 56112 83725
3331
+ 56115 1104999
3332
+ 56115 1107674
3333
+ 56115 1129573
3334
+ 56115 127033
3335
+ 56115 135130
3336
+ 56115 56119
3337
+ 56115 62718
3338
+ 56115 63486
3339
+ 56115 63832
3340
+ 56115 69284
3341
+ 56119 1104999
3342
+ 56119 1105221
3343
+ 56119 127033
3344
+ 56119 63832
3345
+ 56167 1117184
3346
+ 56167 1119178
3347
+ 56167 1152308
3348
+ 56167 239810
3349
+ 56167 359067
3350
+ 56708 28287
3351
+ 56708 308529
3352
+ 56708 56709
3353
+ 56709 1128959
3354
+ 56709 18834
3355
+ 56709 28287
3356
+ 56709 308529
3357
+ 56709 416455
3358
+ 57119 1129570
3359
+ 57119 1132731
3360
+ 57119 1152676
3361
+ 57119 1153942
3362
+ 57119 28456
3363
+ 57119 592975
3364
+ 57119 592986
3365
+ 57119 593060
3366
+ 57119 595056
3367
+ 57119 606647
3368
+ 57119 647408
3369
+ 57764 711527
3370
+ 57773 1154524
3371
+ 57773 235670
3372
+ 57922 1118658
3373
+ 57922 57948
3374
+ 57932 6925
3375
+ 57948 1114526
3376
+ 57948 1118658
3377
+ 57948 57922
3378
+ 58268 13024
3379
+ 58268 137956
3380
+ 58268 899119
3381
+ 58436 1114239
3382
+ 58436 87417
3383
+ 58453 87417
3384
+ 58454 144679
3385
+ 58454 87417
3386
+ 58540 181782
3387
+ 58552 1113828
3388
+ 58552 248395
3389
+ 58758 1128204
3390
+ 58758 1128208
3391
+ 58758 1688
3392
+ 58758 33895
3393
+ 58758 576973
3394
+ 58758 69284
3395
+ 59045 1121867
3396
+ 59626 102406
3397
+ 59626 124734
3398
+ 59626 217115
3399
+ 59626 249858
3400
+ 59626 6125
3401
+ 59715 96845
3402
+ 59772 35335
3403
+ 59798 1152277
3404
+ 59798 1152673
3405
+ 59798 1154251
3406
+ 59798 180373
3407
+ 59798 25181
3408
+ 59798 27174
3409
+ 59798 30895
3410
+ 59798 96335
3411
+ 60159 399370
3412
+ 60159 60169
3413
+ 60169 399370
3414
+ 60170 399370
3415
+ 60682 63477
3416
+ 61069 1107062
3417
+ 61069 1129610
3418
+ 61069 1153816
3419
+ 61069 28456
3420
+ 61069 975567
3421
+ 61073 975567
3422
+ 61312 1105231
3423
+ 61417 1106764
3424
+ 61417 212777
3425
+ 61417 94416
3426
+ 62274 32260
3427
+ 62274 50381
3428
+ 62274 94713
3429
+ 62329 1131565
3430
+ 62329 195792
3431
+ 62329 251756
3432
+ 62329 593155
3433
+ 62329 650834
3434
+ 62347 62333
3435
+ 62389 1107325
3436
+ 62417 1107558
3437
+ 62417 41216
3438
+ 62607 294145
3439
+ 62634 243483
3440
+ 62676 14083
3441
+ 62676 312409
3442
+ 62718 127033
3443
+ 63486 509379
3444
+ 63486 83461
3445
+ 63486 96845
3446
+ 63549 1105344
3447
+ 63812 1105360
3448
+ 63812 1121057
3449
+ 63812 1125393
3450
+ 63835 1110531
3451
+ 63835 95586
3452
+ 63915 145215
3453
+ 63915 38000
3454
+ 63915 6935
3455
+ 63915 6939
3456
+ 63931 1117786
3457
+ 63931 136766
3458
+ 63931 136768
3459
+ 63931 13717
3460
+ 63931 6939
3461
+ 64271 1152244
3462
+ 64271 38829
3463
+ 64271 73327
3464
+ 64271 91852
3465
+ 64271 95188
3466
+ 64319 111866
3467
+ 64319 249858
3468
+ 64484 1105394
3469
+ 64519 154134
3470
+ 64519 37483
3471
+ 64519 63835
3472
+ 65057 1125909
3473
+ 65057 134307
3474
+ 65057 519353
3475
+ 65057 74698
3476
+ 65074 1110209
3477
+ 65074 1117920
3478
+ 65074 134307
3479
+ 65074 134316
3480
+ 65074 142268
3481
+ 65074 23070
3482
+ 65074 65057
3483
+ 65074 714748
3484
+ 65074 74698
3485
+ 65074 87915
3486
+ 65212 1105433
3487
+ 65212 1154042
3488
+ 65212 23116
3489
+ 65650 1105450
3490
+ 65650 1118764
3491
+ 65650 309476
3492
+ 65650 5038
3493
+ 65653 1105450
3494
+ 65653 1112319
3495
+ 66556 1129778
3496
+ 66556 141324
3497
+ 66556 54131
3498
+ 66556 593859
3499
+ 66556 66563
3500
+ 66563 1123530
3501
+ 66563 96845
3502
+ 66564 141324
3503
+ 66564 593859
3504
+ 66564 593942
3505
+ 66564 66563
3506
+ 66594 8821
3507
+ 66596 362926
3508
+ 66596 8821
3509
+ 66751 1135750
3510
+ 66751 1138043
3511
+ 66751 573535
3512
+ 66751 693143
3513
+ 66751 695284
3514
+ 66782 1105505
3515
+ 66782 51834
3516
+ 66794 1102646
3517
+ 66794 1105505
3518
+ 66794 1153031
3519
+ 66805 509315
3520
+ 66805 82090
3521
+ 66809 82090
3522
+ 66982 39210
3523
+ 66986 39210
3524
+ 66990 1117501
3525
+ 66990 1152490
3526
+ 66990 1153861
3527
+ 66990 390889
3528
+ 66990 39210
3529
+ 67245 31769
3530
+ 67245 67246
3531
+ 67246 31769
3532
+ 67292 1105530
3533
+ 67415 1110256
3534
+ 67415 1135746
3535
+ 67415 12195
3536
+ 67415 164
3537
+ 67415 171954
3538
+ 67415 38722
3539
+ 67415 51180
3540
+ 67584 1127558
3541
+ 67584 1127566
3542
+ 67584 562067
3543
+ 67633 1114777
3544
+ 67633 55801
3545
+ 68115 47684
3546
+ 68224 1105574
3547
+ 68224 1128425
3548
+ 68224 1130680
3549
+ 68224 582139
3550
+ 69198 231198
3551
+ 69198 411005
3552
+ 69198 8581
3553
+ 69284 206371
3554
+ 69284 69296
3555
+ 69296 206371
3556
+ 69392 1132461
3557
+ 70281 1105672
3558
+ 70281 1106630
3559
+ 70442 1107215
3560
+ 70442 70441
3561
+ 70444 1107215
3562
+ 70444 1108329
3563
+ 70444 128383
3564
+ 70444 70441
3565
+ 70444 70442
3566
+ 70520 27631
3567
+ 70520 36167
3568
+ 70970 1129683
3569
+ 70970 593068
3570
+ 70970 593329
3571
+ 71336 1105718
3572
+ 71736 1152259
3573
+ 71736 1152991
3574
+ 71904 239800
3575
+ 71904 95718
3576
+ 72056 1135122
3577
+ 72101 1118347
3578
+ 72406 1105764
3579
+ 72805 899085
3580
+ 72908 1127863
3581
+ 72908 6923
3582
+ 72908 93923
3583
+ 72908 954315
3584
+ 73119 14429
3585
+ 73119 14431
3586
+ 73146 1108389
3587
+ 73146 116790
3588
+ 73146 18774
3589
+ 73146 35778
3590
+ 73162 1134320
3591
+ 73162 1134348
3592
+ 73162 189774
3593
+ 73162 519353
3594
+ 73162 521855
3595
+ 73162 559804
3596
+ 73162 653441
3597
+ 73162 714260
3598
+ 73162 714748
3599
+ 73162 714879
3600
+ 73323 1105810
3601
+ 73323 28447
3602
+ 73327 1105810
3603
+ 73327 1106236
3604
+ 73327 1153166
3605
+ 73327 1153724
3606
+ 73327 1153728
3607
+ 73712 1112194
3608
+ 73712 52003
3609
+ 73972 50980
3610
+ 74427 1106771
3611
+ 74427 1116974
3612
+ 74427 34257
3613
+ 74427 34266
3614
+ 74427 368605
3615
+ 74427 87482
3616
+ 74698 134307
3617
+ 74698 23070
3618
+ 74700 134307
3619
+ 74700 23069
3620
+ 74749 10186
3621
+ 74749 1113852
3622
+ 74749 2354
3623
+ 74821 1120252
3624
+ 74821 1131149
3625
+ 74821 1131150
3626
+ 74920 1105877
3627
+ 74921 1105877
3628
+ 74937 1105877
3629
+ 74937 74920
3630
+ 74937 74921
3631
+ 74975 1107041
3632
+ 74975 1128407
3633
+ 74975 38845
3634
+ 74975 38846
3635
+ 74975 3932
3636
+ 75121 1105887
3637
+ 75121 1106388
3638
+ 75121 22431
3639
+ 75121 417017
3640
+ 75318 103430
3641
+ 75318 1121569
3642
+ 75318 141171
3643
+ 75674 1109957
3644
+ 75674 686015
3645
+ 75693 214472
3646
+ 75694 214472
3647
+ 75695 1113035
3648
+ 75695 1120059
3649
+ 75695 139547
3650
+ 75695 911198
3651
+ 75969 1105932
3652
+ 75969 1128856
3653
+ 75969 1128935
3654
+ 75969 1153811
3655
+ 75969 591017
3656
+ 75969 592830
3657
+ 75972 1105932
3658
+ 75972 1128935
3659
+ 75972 592830
3660
+ 75983 1106568
3661
+ 75983 1115790
3662
+ 77108 1138043
3663
+ 77108 77112
3664
+ 77438 106590
3665
+ 77438 1129994
3666
+ 77438 1152633
3667
+ 77438 1153262
3668
+ 77438 158172
3669
+ 77438 293974
3670
+ 77438 37888
3671
+ 77438 589923
3672
+ 77438 590022
3673
+ 77515 9513
3674
+ 77758 1129907
3675
+ 77758 1131745
3676
+ 77758 180373
3677
+ 77758 25772
3678
+ 77758 289885
3679
+ 77758 294030
3680
+ 77758 424
3681
+ 77758 613409
3682
+ 77758 910
3683
+ 77826 3112
3684
+ 77826 470511
3685
+ 77829 3112
3686
+ 77829 470511
3687
+ 78508 1120138
3688
+ 78511 575402
3689
+ 78511 735303
3690
+ 78511 9586
3691
+ 78552 33818
3692
+ 78552 78511
3693
+ 78552 78557
3694
+ 78552 9586
3695
+ 78555 1120138
3696
+ 78555 33818
3697
+ 78555 78557
3698
+ 78557 1120138
3699
+ 78557 33818
3700
+ 78557 78511
3701
+ 78557 78549
3702
+ 78557 9586
3703
+ 78994 662279
3704
+ 78994 662572
3705
+ 79809 1121659
3706
+ 79809 1131466
3707
+ 79809 11342
3708
+ 79809 1153275
3709
+ 79809 31863
3710
+ 79809 358866
3711
+ 79809 79817
3712
+ 79809 91581
3713
+ 79817 1131466
3714
+ 80491 314459
3715
+ 80491 7532
3716
+ 80491 80515
3717
+ 80515 1121603
3718
+ 80515 314459
3719
+ 80656 13652
3720
+ 80656 13654
3721
+ 80656 13656
3722
+ 81350 1106172
3723
+ 81350 892139
3724
+ 81714 81722
3725
+ 82090 82087
3726
+ 82098 82087
3727
+ 82664 1106236
3728
+ 82664 3097
3729
+ 82666 101143
3730
+ 82666 1106236
3731
+ 82666 3097
3732
+ 82920 1119708
3733
+ 82920 1125492
3734
+ 82920 1127913
3735
+ 82920 1128198
3736
+ 82920 1129367
3737
+ 82920 1129683
3738
+ 82920 1152358
3739
+ 82920 1152421
3740
+ 82920 1153280
3741
+ 82920 1153943
3742
+ 82920 1154459
3743
+ 82920 259702
3744
+ 82920 273152
3745
+ 82920 307015
3746
+ 82920 35
3747
+ 82920 513189
3748
+ 82920 573978
3749
+ 82920 576691
3750
+ 82920 608326
3751
+ 82920 70970
3752
+ 82920 81714
3753
+ 82920 84021
3754
+ 82920 98698
3755
+ 83449 218682
3756
+ 83449 22869
3757
+ 83449 22874
3758
+ 83461 954315
3759
+ 83725 12576
3760
+ 83725 56112
3761
+ 83725 56115
3762
+ 83725 56119
3763
+ 83725 62718
3764
+ 83746 294239
3765
+ 83826 1106287
3766
+ 83847 1106287
3767
+ 83847 1117501
3768
+ 83847 1130678
3769
+ 83847 66986
3770
+ 84020 1106298
3771
+ 84020 1106492
3772
+ 84021 1106298
3773
+ 84021 1133047
3774
+ 84021 18582
3775
+ 84021 263279
3776
+ 84021 415693
3777
+ 84021 509233
3778
+ 84021 98698
3779
+ 85299 23258
3780
+ 85299 299197
3781
+ 85299 575292
3782
+ 85324 299197
3783
+ 85324 628751
3784
+ 85352 1114331
3785
+ 85352 1127430
3786
+ 85352 1129027
3787
+ 85352 1152421
3788
+ 85352 1153280
3789
+ 85352 1153943
3790
+ 85352 1154459
3791
+ 85352 152483
3792
+ 85352 561238
3793
+ 85352 574462
3794
+ 85352 576691
3795
+ 85352 577086
3796
+ 85352 593091
3797
+ 85352 640617
3798
+ 85352 66556
3799
+ 85352 682815
3800
+ 85449 1120169
3801
+ 85449 1152290
3802
+ 85452 1120169
3803
+ 85452 1152290
3804
+ 85688 6539
3805
+ 85688 75121
3806
+ 85688 8224
3807
+ 85688 8703
3808
+ 85688 97892
3809
+ 86258 1106418
3810
+ 86359 1133469
3811
+ 86359 1152740
3812
+ 86359 1152944
3813
+ 86359 18834
3814
+ 86923 1114184
3815
+ 86923 18532
3816
+ 87363 593328
3817
+ 87417 1128453
3818
+ 87417 289779
3819
+ 87417 289780
3820
+ 87417 289781
3821
+ 87417 801170
3822
+ 87482 34266
3823
+ 87915 1110209
3824
+ 87915 1153786
3825
+ 87915 142268
3826
+ 87915 23070
3827
+ 89308 101145
3828
+ 89308 103528
3829
+ 89335 59244
3830
+ 89416 1106546
3831
+ 89416 1153024
3832
+ 89416 137130
3833
+ 89416 506
3834
+ 89416 65074
3835
+ 89547 1112319
3836
+ 89547 1116328
3837
+ 89547 1132385
3838
+ 89547 1152379
3839
+ 89547 237376
3840
+ 89547 28471
3841
+ 89547 45188
3842
+ 89547 45189
3843
+ 89547 66805
3844
+ 89547 6771
3845
+ 89547 91975
3846
+ 89547 976284
3847
+ 90470 106590
3848
+ 90470 1129994
3849
+ 90655 1122642
3850
+ 90655 34263
3851
+ 90888 1113934
3852
+ 90888 13885
3853
+ 90888 340075
3854
+ 91038 52515
3855
+ 91581 31863
3856
+ 91581 358894
3857
+ 91852 20178
3858
+ 91853 1110579
3859
+ 91853 1116397
3860
+ 91853 1116410
3861
+ 91853 20178
3862
+ 91975 1113459
3863
+ 92065 1106671
3864
+ 92589 1131137
3865
+ 92589 173884
3866
+ 92589 39165
3867
+ 93273 248119
3868
+ 93273 989397
3869
+ 93318 1126050
3870
+ 93555 1152958
3871
+ 93555 119761
3872
+ 93555 143801
3873
+ 93555 284023
3874
+ 93555 284025
3875
+ 93755 175576
3876
+ 93923 6941
3877
+ 94229 1111733
3878
+ 94229 1123087
3879
+ 94416 1106764
3880
+ 94639 141324
3881
+ 94639 593105
3882
+ 94639 593813
3883
+ 94639 593859
3884
+ 94639 593942
3885
+ 94639 62634
3886
+ 94641 1102550
3887
+ 94641 1129018
3888
+ 94641 1153897
3889
+ 94641 116553
3890
+ 94641 594387
3891
+ 94641 62634
3892
+ 95188 1110579
3893
+ 95188 1116410
3894
+ 95198 1110579
3895
+ 95225 42207
3896
+ 95586 95589
3897
+ 95588 95579
3898
+ 95594 1153287
3899
+ 95594 7430
3900
+ 95594 95589
3901
+ 95597 95579
3902
+ 95642 1107367
3903
+ 95642 28447
3904
+ 95642 990075
3905
+ 95718 32698
3906
+ 95719 32698
3907
+ 96847 594025
3908
+ 96851 594387
3909
+ 96851 96847
3910
+ 97377 211432
3911
+ 97377 3240
3912
+ 97377 39130
3913
+ 97390 100935
3914
+ 97390 1152358
3915
+ 97390 1153943
3916
+ 97390 33907
3917
+ 97390 98693
3918
+ 97645 33907
3919
+ 97645 593091
3920
+ 98693 1152358
3921
+ 98693 575331
3922
+ 98698 84021
3923
+ 99023 578306
3924
+ 99023 578309
3925
+ 99023 578347
3926
+ 99030 578337
3927
+ 100197 193931
3928
+ 100197 447250
3929
+ 100197 688361
3930
+ 100701 1107041
3931
+ 100935 1120643
3932
+ 100935 1134865
3933
+ 100961 60169
3934
+ 101143 101145
3935
+ 101143 596075
3936
+ 101261 101263
3937
+ 101263 1112099
3938
+ 101263 1139928
3939
+ 101263 28456
3940
+ 101660 1107095
3941
+ 101662 1107095
3942
+ 101811 101662
3943
+ 101811 1153064
3944
+ 101811 151430
3945
+ 101811 6935
3946
+ 102061 509315
3947
+ 102879 9513
3948
+ 102884 9513
3949
+ 102938 143676
3950
+ 102939 102938
3951
+ 102939 143676
3952
+ 103430 1154074
3953
+ 103430 75318
3954
+ 103482 1114388
3955
+ 103482 1119140
3956
+ 103482 1128990
3957
+ 103482 27510
3958
+ 103482 27514
3959
+ 103515 1113742
3960
+ 103515 1127913
3961
+ 103515 1128314
3962
+ 103515 1129778
3963
+ 103515 1153853
3964
+ 103515 246618
3965
+ 103515 459214
3966
+ 103515 54131
3967
+ 103515 575402
3968
+ 103528 103529
3969
+ 103528 1107171
3970
+ 103529 1107171
3971
+ 103531 1107171
3972
+ 103531 656048
3973
+ 103537 126912
3974
+ 103543 126912
3975
+ 103543 126927
3976
+ 105856 193931
3977
+ 105856 273949
3978
+ 105856 289085
3979
+ 105865 193931
3980
+ 105865 193932
3981
+ 105899 1111304
3982
+ 106590 1095507
3983
+ 106590 1129994
3984
+ 107177 1119751
3985
+ 107251 107252
3986
+ 107251 389715
3987
+ 107569 1107385
3988
+ 107569 1120777
3989
+ 108047 1107418
3990
+ 108047 1128319
3991
+ 108047 1153853
3992
+ 108047 1153899
3993
+ 108047 28336
3994
+ 108047 578645
3995
+ 108047 578646
3996
+ 108047 578649
3997
+ 108047 578898
3998
+ 108962 108963
3999
+ 108962 1095507
4000
+ 108962 159897
4001
+ 108962 310653
4002
+ 108963 108962
4003
+ 108963 1095507
4004
+ 108974 108962
4005
+ 108974 108963
4006
+ 108974 1125469
4007
+ 108974 1133417
4008
+ 108974 66794
4009
+ 108983 108962
4010
+ 108983 159897
4011
+ 108983 310653
4012
+ 108983 683404
4013
+ 109323 137849
4014
+ 110041 1152358
4015
+ 110041 287787
4016
+ 110162 110163
4017
+ 110162 110164
4018
+ 110163 110162
4019
+ 110163 110164
4020
+ 111676 89308
4021
+ 111770 1119623
4022
+ 111866 249858
4023
+ 112099 1114777
4024
+ 112378 1121459
4025
+ 112378 1131728
4026
+ 112378 141868
4027
+ 112378 145215
4028
+ 112378 654177
4029
+ 112787 1120444
4030
+ 114189 88356
4031
+ 114308 63835
4032
+ 114966 1125258
4033
+ 115188 1107728
4034
+ 116021 12960
4035
+ 116081 116087
4036
+ 116081 277263
4037
+ 116084 116087
4038
+ 116084 195150
4039
+ 116084 568045
4040
+ 116084 75972
4041
+ 116512 1107808
4042
+ 116528 1110438
4043
+ 116528 25772
4044
+ 116528 3237
4045
+ 116545 1128291
4046
+ 116545 1128319
4047
+ 116545 116553
4048
+ 116545 246618
4049
+ 116545 578645
4050
+ 116545 578649
4051
+ 116552 116553
4052
+ 116552 246618
4053
+ 116553 246618
4054
+ 116790 345340
4055
+ 117315 28336
4056
+ 117316 117315
4057
+ 117328 1115166
4058
+ 117328 38829
4059
+ 117328 91852
4060
+ 117328 95188
4061
+ 118259 118260
4062
+ 118259 230300
4063
+ 118260 230300
4064
+ 118424 118436
4065
+ 118435 118436
4066
+ 118559 1108209
4067
+ 118559 1121739
4068
+ 118873 1109566
4069
+ 118873 1115959
4070
+ 118873 987188
4071
+ 119686 198443
4072
+ 119686 987188
4073
+ 119712 1114118
4074
+ 119761 143801
4075
+ 119761 284025
4076
+ 120084 1140543
4077
+ 120817 1109873
4078
+ 120817 1140543
4079
+ 121792 1152394
4080
+ 123556 141160
4081
+ 123556 14807
4082
+ 123556 50354
4083
+ 123825 1131464
4084
+ 123825 1131634
4085
+ 123825 1154276
4086
+ 123825 23448
4087
+ 123825 42847
4088
+ 123825 447250
4089
+ 123825 649730
4090
+ 123825 649739
4091
+ 124064 6163
4092
+ 124064 6220
4093
+ 124064 6224
4094
+ 124224 169279
4095
+ 124224 6898
4096
+ 124296 51834
4097
+ 124734 1108167
4098
+ 124734 25805
4099
+ 124828 1108169
4100
+ 124952 1119742
4101
+ 124952 1123756
4102
+ 124952 1126011
4103
+ 124952 1126012
4104
+ 124952 189721
4105
+ 126793 1131270
4106
+ 126793 16843
4107
+ 126867 1108258
4108
+ 126868 1108258
4109
+ 126868 126867
4110
+ 126909 103543
4111
+ 126912 103543
4112
+ 126912 66990
4113
+ 126920 103543
4114
+ 126920 126927
4115
+ 126920 645897
4116
+ 126926 103543
4117
+ 126926 126909
4118
+ 126927 103543
4119
+ 126927 126920
4120
+ 126927 644093
4121
+ 126927 645897
4122
+ 126927 646286
4123
+ 127033 1108267
4124
+ 127033 416455
4125
+ 127033 574710
4126
+ 127940 1114364
4127
+ 127940 243274
4128
+ 128203 128202
4129
+ 128383 1108329
4130
+ 128540 387795
4131
+ 129042 1108363
4132
+ 129042 1121313
4133
+ 129042 129045
4134
+ 129045 1108363
4135
+ 129045 1121313
4136
+ 129287 907845
4137
+ 131042 40125
4138
+ 131117 152219
4139
+ 131117 212930
4140
+ 131122 212930
4141
+ 131315 411005
4142
+ 131317 411005
4143
+ 131318 411005
4144
+ 132806 45599
4145
+ 132806 48766
4146
+ 132806 593260
4147
+ 132821 695284
4148
+ 133550 1109891
4149
+ 133550 133566
4150
+ 133550 140569
4151
+ 133553 105856
4152
+ 133553 1120049
4153
+ 133563 105856
4154
+ 133563 1120049
4155
+ 133563 133566
4156
+ 133566 1152714
4157
+ 133567 1152714
4158
+ 133567 133566
4159
+ 133615 1128531
4160
+ 133615 1153866
4161
+ 133615 55403
4162
+ 133628 1108570
4163
+ 134060 481073
4164
+ 134128 1113182
4165
+ 134128 1113614
4166
+ 134128 1117760
4167
+ 134199 1114331
4168
+ 134199 164885
4169
+ 134199 447224
4170
+ 134219 1112075
4171
+ 134219 447224
4172
+ 134219 503893
4173
+ 134219 81714
4174
+ 134307 134316
4175
+ 134314 1116044
4176
+ 134314 134316
4177
+ 134315 23069
4178
+ 134316 1117920
4179
+ 134316 142268
4180
+ 134320 23069
4181
+ 135130 1105221
4182
+ 135130 416455
4183
+ 135130 574710
4184
+ 135464 1133004
4185
+ 135464 1135589
4186
+ 135464 120084
4187
+ 135464 237489
4188
+ 135464 8581
4189
+ 135765 6917
4190
+ 135766 135765
4191
+ 135766 449841
4192
+ 135766 6917
4193
+ 135798 1108656
4194
+ 136665 23258
4195
+ 136766 348437
4196
+ 136767 136766
4197
+ 136767 348437
4198
+ 136768 136766
4199
+ 137130 23070
4200
+ 137130 65074
4201
+ 137359 1108728
4202
+ 137359 1118286
4203
+ 137359 1153101
4204
+ 137359 1153150
4205
+ 137380 1108728
4206
+ 137380 37541
4207
+ 137380 85449
4208
+ 137790 10186
4209
+ 137790 1113852
4210
+ 137790 128203
4211
+ 137790 2354
4212
+ 137790 74749
4213
+ 137849 1115291
4214
+ 137849 17242
4215
+ 137868 1110000
4216
+ 137868 1131277
4217
+ 137868 1131300
4218
+ 137868 1154068
4219
+ 137868 642827
4220
+ 137868 91581
4221
+ 137956 13024
4222
+ 139738 1108834
4223
+ 139865 1108841
4224
+ 139865 1110563
4225
+ 140005 86840
4226
+ 141160 1109891
4227
+ 141160 1131345
4228
+ 141160 133553
4229
+ 141160 917493
4230
+ 141171 1121569
4231
+ 141324 1113438
4232
+ 141324 503877
4233
+ 141342 1119708
4234
+ 141342 35061
4235
+ 141342 40
4236
+ 141342 575292
4237
+ 141342 608191
4238
+ 141342 70970
4239
+ 141342 78511
4240
+ 141347 1119708
4241
+ 141596 40125
4242
+ 141868 429805
4243
+ 142268 1110209
4244
+ 142268 1117920
4245
+ 142268 134316
4246
+ 143323 1130539
4247
+ 143323 154134
4248
+ 143323 217139
4249
+ 143323 3084
4250
+ 143323 84021
4251
+ 143476 1112686
4252
+ 143676 102938
4253
+ 143801 284025
4254
+ 144212 1131549
4255
+ 144330 63486
4256
+ 144408 219446
4257
+ 144408 3229
4258
+ 144679 1114239
4259
+ 144701 1112911
4260
+ 144701 1128975
4261
+ 144701 1128997
4262
+ 144701 1136342
4263
+ 144701 22229
4264
+ 144701 595063
4265
+ 145134 129287
4266
+ 145134 641976
4267
+ 145176 1112723
4268
+ 145176 1132418
4269
+ 145176 40124
4270
+ 145215 141868
4271
+ 145215 429805
4272
+ 145215 654177
4273
+ 145315 294126
4274
+ 145315 649944
4275
+ 145384 1153287
4276
+ 145384 7430
4277
+ 145384 95589
4278
+ 147870 1109185
4279
+ 147870 1132434
4280
+ 147870 636500
4281
+ 148170 1109199
4282
+ 148170 1128997
4283
+ 148341 1109208
4284
+ 148341 1131116
4285
+ 149139 1123215
4286
+ 149669 589923
4287
+ 151430 1115670
4288
+ 151708 1120786
4289
+ 152226 1102400
4290
+ 152227 1139928
4291
+ 152227 152226
4292
+ 152227 987197
4293
+ 152483 583318
4294
+ 152483 593091
4295
+ 152731 1109392
4296
+ 152731 23507
4297
+ 153063 1131223
4298
+ 153063 440815
4299
+ 153063 561568
4300
+ 153063 561581
4301
+ 153063 561593
4302
+ 153063 561595
4303
+ 153063 561610
4304
+ 153063 561613
4305
+ 153063 645084
4306
+ 153598 1113459
4307
+ 154023 1112106
4308
+ 154023 1133846
4309
+ 154023 154047
4310
+ 154047 1112106
4311
+ 154047 1133846
4312
+ 154047 154023
4313
+ 154982 1121867
4314
+ 154982 1130927
4315
+ 154982 1130931
4316
+ 154982 1130934
4317
+ 154982 1133028
4318
+ 154982 129897
4319
+ 155158 397590
4320
+ 155158 8687
4321
+ 155736 155738
4322
+ 155738 155736
4323
+ 155738 157761
4324
+ 156794 1109581
4325
+ 156977 1152490
4326
+ 156977 1153861
4327
+ 156977 390889
4328
+ 156977 395547
4329
+ 157401 1118017
4330
+ 157761 219239
4331
+ 157805 6539
4332
+ 158172 445938
4333
+ 158614 10169
4334
+ 158812 1127812
4335
+ 159084 1152711
4336
+ 159084 159085
4337
+ 159084 241821
4338
+ 159085 1152711
4339
+ 159085 241821
4340
+ 159897 310653
4341
+ 159897 683355
4342
+ 160732 1128853
4343
+ 160732 75969
4344
+ 161221 1153922
4345
+ 162075 1109830
4346
+ 162075 162080
4347
+ 162075 737204
4348
+ 162080 1109830
4349
+ 162080 1135345
4350
+ 162080 162075
4351
+ 162080 739707
4352
+ 162664 118682
4353
+ 162664 39165
4354
+ 162664 510718
4355
+ 162664 531348
4356
+ 162664 531351
4357
+ 163235 1109873
4358
+ 164885 447224
4359
+ 166420 1119751
4360
+ 166825 1110024
4361
+ 166825 1118388
4362
+ 166989 1110028
4363
+ 166989 1121063
4364
+ 166989 25805
4365
+ 167670 1123068
4366
+ 168332 86359
4367
+ 169279 1132083
4368
+ 169279 1154103
4369
+ 169280 1132083
4370
+ 169280 1154103
4371
+ 170798 656231
4372
+ 171954 1110256
4373
+ 171954 1135750
4374
+ 171954 1138755
4375
+ 171954 820662
4376
+ 173863 116790
4377
+ 174418 307336
4378
+ 174418 636511
4379
+ 174425 174418
4380
+ 174425 636511
4381
+ 175256 1120643
4382
+ 175256 1133196
4383
+ 175256 682815
4384
+ 175291 52784
4385
+ 175548 105856
4386
+ 175548 1120049
4387
+ 175548 689152
4388
+ 175548 753070
4389
+ 175909 112787
4390
+ 175909 1153891
4391
+ 175909 221302
4392
+ 177115 5069
4393
+ 177993 1110515
4394
+ 177998 1110515
4395
+ 177998 583318
4396
+ 178209 1000012
4397
+ 178209 116084
4398
+ 178209 195150
4399
+ 178209 568045
4400
+ 178209 75972
4401
+ 178718 1110546
4402
+ 178718 69296
4403
+ 178727 1110546
4404
+ 179180 1110563
4405
+ 179180 1126037
4406
+ 179180 139865
4407
+ 179702 1121569
4408
+ 179702 1152859
4409
+ 179702 141171
4410
+ 179702 424540
4411
+ 179706 141171
4412
+ 180187 1131719
4413
+ 180301 1110628
4414
+ 180373 180399
4415
+ 180399 1120084
4416
+ 180399 385572
4417
+ 182093 197054
4418
+ 182094 1131550
4419
+ 182094 197054
4420
+ 182094 650814
4421
+ 184157 95435
4422
+ 184918 171225
4423
+ 184918 330148
4424
+ 187260 1110950
4425
+ 187354 1117786
4426
+ 187354 1127851
4427
+ 187354 372862
4428
+ 188318 1110998
4429
+ 188471 628500
4430
+ 189566 1153014
4431
+ 189566 189856
4432
+ 189566 310742
4433
+ 189566 36802
4434
+ 189566 90470
4435
+ 189571 1154232
4436
+ 189571 189572
4437
+ 189571 521855
4438
+ 189571 714748
4439
+ 189572 1134348
4440
+ 189574 1123689
4441
+ 189620 1129994
4442
+ 189620 1133417
4443
+ 189623 683355
4444
+ 189655 559804
4445
+ 189655 714260
4446
+ 189655 714748
4447
+ 189708 149669
4448
+ 189721 1129518
4449
+ 189774 1134346
4450
+ 189774 714879
4451
+ 189856 1129518
4452
+ 189856 1129994
4453
+ 189856 683355
4454
+ 189856 683404
4455
+ 190698 1114502
4456
+ 190698 190697
4457
+ 190698 198443
4458
+ 190706 144212
4459
+ 190706 182094
4460
+ 191222 191216
4461
+ 191222 708945
4462
+ 192850 272720
4463
+ 192870 1111186
4464
+ 192870 1114398
4465
+ 193347 1129835
4466
+ 193347 1131719
4467
+ 193347 193354
4468
+ 193347 612306
4469
+ 193352 1129835
4470
+ 193352 1131719
4471
+ 193352 193347
4472
+ 193352 193354
4473
+ 193352 612306
4474
+ 193354 1129835
4475
+ 193742 1111230
4476
+ 193742 6152
4477
+ 193918 1111240
4478
+ 193931 1111240
4479
+ 193931 193932
4480
+ 193932 1111240
4481
+ 194223 1126044
4482
+ 194223 390922
4483
+ 194609 1128868
4484
+ 194609 1129572
4485
+ 194609 1154520
4486
+ 194609 126128
4487
+ 194609 215912
4488
+ 194609 31927
4489
+ 194609 563613
4490
+ 194617 1124844
4491
+ 194617 1129572
4492
+ 194617 215912
4493
+ 194617 31932
4494
+ 194645 248823
4495
+ 195150 568045
4496
+ 195361 1111304
4497
+ 195792 1128974
4498
+ 195792 19045
4499
+ 195792 377303
4500
+ 195792 593210
4501
+ 195792 682815
4502
+ 197054 1125092
4503
+ 197452 1135894
4504
+ 197452 424
4505
+ 198443 190697
4506
+ 198653 1113551
4507
+ 198653 1130539
4508
+ 198653 1152896
4509
+ 198653 3084
4510
+ 198653 887
4511
+ 198866 1153728
4512
+ 198866 73327
4513
+ 199571 46431
4514
+ 200630 643734
4515
+ 202520 1115701
4516
+ 202520 446271
4517
+ 202522 446271
4518
+ 202639 1117348
4519
+ 202639 1123087
4520
+ 202639 1154123
4521
+ 202639 1154124
4522
+ 202639 144408
4523
+ 202639 242637
4524
+ 202639 40131
4525
+ 202639 643597
4526
+ 202639 672064
4527
+ 203646 1116569
4528
+ 205192 1132968
4529
+ 205192 578337
4530
+ 205192 99030
4531
+ 205196 1112929
4532
+ 205196 1130568
4533
+ 205196 1130586
4534
+ 205196 628751
4535
+ 205196 628764
4536
+ 205196 628766
4537
+ 205196 815096
4538
+ 205196 950986
4539
+ 206371 69296
4540
+ 206524 48075
4541
+ 208345 1114777
4542
+ 208345 55801
4543
+ 210309 1111978
4544
+ 210871 1117476
4545
+ 210871 1128151
4546
+ 210871 1129629
4547
+ 210871 198653
4548
+ 210871 273152
4549
+ 210871 35
4550
+ 210871 38205
4551
+ 210871 568857
4552
+ 210871 575077
4553
+ 210871 595157
4554
+ 210871 59715
4555
+ 210871 81714
4556
+ 210871 887
4557
+ 210872 1129610
4558
+ 210872 210871
4559
+ 210872 273152
4560
+ 210872 35
4561
+ 210872 593260
4562
+ 210872 606479
4563
+ 212097 1112071
4564
+ 212107 1112071
4565
+ 213246 1122642
4566
+ 213246 34263
4567
+ 213279 197783
4568
+ 215912 31932
4569
+ 216877 1117618
4570
+ 216877 334153
4571
+ 216878 1117618
4572
+ 216878 334153
4573
+ 216878 711527
4574
+ 217115 1112319
4575
+ 217139 154134
4576
+ 217984 1112369
4577
+ 218410 1152663
4578
+ 218410 134128
4579
+ 218682 22874
4580
+ 219218 1112417
4581
+ 219239 12247
4582
+ 219239 157761
4583
+ 219446 1112426
4584
+ 219446 1127812
4585
+ 219446 249421
4586
+ 219446 567018
4587
+ 219976 1116410
4588
+ 220420 1128227
4589
+ 221302 1153891
4590
+ 226698 1112767
4591
+ 226698 1122304
4592
+ 227178 1114502
4593
+ 227178 1128946
4594
+ 227178 1128985
4595
+ 227178 593240
4596
+ 227178 96847
4597
+ 227286 1115790
4598
+ 228990 228992
4599
+ 230300 118260
4600
+ 230879 1130808
4601
+ 230879 1132486
4602
+ 230879 1132948
4603
+ 230879 1133428
4604
+ 230879 1140230
4605
+ 230879 205192
4606
+ 230879 230884
4607
+ 230879 236759
4608
+ 230879 2658
4609
+ 230879 578309
4610
+ 230879 578337
4611
+ 230879 696342
4612
+ 230879 696343
4613
+ 230879 696345
4614
+ 230879 696346
4615
+ 230879 751408
4616
+ 230879 851968
4617
+ 230879 99030
4618
+ 230884 1131607
4619
+ 230884 1132486
4620
+ 230884 1135899
4621
+ 230884 751408
4622
+ 231198 1153195
4623
+ 231198 1153922
4624
+ 231198 144408
4625
+ 231249 1125492
4626
+ 231249 1127913
4627
+ 232605 25413
4628
+ 232606 1132809
4629
+ 232606 232605
4630
+ 232606 25413
4631
+ 232860 1113084
4632
+ 233106 12275
4633
+ 233106 630890
4634
+ 235678 235670
4635
+ 235678 235679
4636
+ 235678 689439
4637
+ 235679 1154524
4638
+ 235679 235670
4639
+ 235679 235678
4640
+ 235679 57773
4641
+ 235679 689439
4642
+ 235683 1154524
4643
+ 235683 235670
4644
+ 235683 235678
4645
+ 235683 235679
4646
+ 235683 57773
4647
+ 237489 1120059
4648
+ 237489 2665
4649
+ 237521 2665
4650
+ 238099 1127851
4651
+ 238401 1125386
4652
+ 239800 95718
4653
+ 239810 359067
4654
+ 240321 1132434
4655
+ 240321 1132459
4656
+ 240321 1136397
4657
+ 240321 1154123
4658
+ 240321 1154124
4659
+ 240321 428610
4660
+ 240321 447250
4661
+ 240321 675649
4662
+ 240321 675847
4663
+ 240321 69392
4664
+ 240791 1113438
4665
+ 240791 45605
4666
+ 240791 503871
4667
+ 240791 650834
4668
+ 241133 1113459
4669
+ 241821 1152711
4670
+ 241821 159085
4671
+ 242637 1113541
4672
+ 243483 459214
4673
+ 245288 1122460
4674
+ 246618 1113742
4675
+ 246618 116553
4676
+ 248395 1113828
4677
+ 248395 58552
4678
+ 248425 1113831
4679
+ 248425 1121398
4680
+ 248425 592975
4681
+ 248425 594387
4682
+ 248431 1113831
4683
+ 248823 682666
4684
+ 249421 1127812
4685
+ 249421 567018
4686
+ 249858 111866
4687
+ 250566 1113926
4688
+ 251756 1102550
4689
+ 251756 195792
4690
+ 252715 601561
4691
+ 253762 23116
4692
+ 253971 1129621
4693
+ 254923 108047
4694
+ 254923 444240
4695
+ 255233 33303
4696
+ 255628 1135589
4697
+ 255628 1140543
4698
+ 255628 120084
4699
+ 256106 1114192
4700
+ 258259 168958
4701
+ 259701 1114331
4702
+ 259702 1114331
4703
+ 259702 1131116
4704
+ 259772 1114336
4705
+ 260121 1114352
4706
+ 260979 1114388
4707
+ 261040 110164
4708
+ 261040 1117184
4709
+ 262108 1114442
4710
+ 262121 1114442
4711
+ 262178 1114442
4712
+ 262178 1138968
4713
+ 262178 85449
4714
+ 263069 1131116
4715
+ 263069 148341
4716
+ 263279 1114502
4717
+ 263482 1114512
4718
+ 263482 1118302
4719
+ 263482 263486
4720
+ 263486 1114512
4721
+ 263498 1152761
4722
+ 263498 1153860
4723
+ 263553 1117219
4724
+ 263553 662416
4725
+ 263553 6910
4726
+ 264347 1153183
4727
+ 264556 120084
4728
+ 264556 289085
4729
+ 264556 335042
4730
+ 265203 86359
4731
+ 267003 75121
4732
+ 267824 1153195
4733
+ 267824 69198
4734
+ 270456 203646
4735
+ 270456 63549
4736
+ 270600 1114838
4737
+ 270600 1153003
4738
+ 272720 192850
4739
+ 273152 210871
4740
+ 273949 1114992
4741
+ 278394 627024
4742
+ 278394 851968
4743
+ 278403 627024
4744
+ 280876 1115291
4745
+ 282700 1115375
4746
+ 284023 1152958
4747
+ 284023 1152959
4748
+ 284023 119761
4749
+ 284023 346292
4750
+ 284025 119761
4751
+ 284025 949217
4752
+ 284414 1115456
4753
+ 285687 285675
4754
+ 286513 1131557
4755
+ 286513 177993
4756
+ 287787 1123756
4757
+ 287787 1130847
4758
+ 287787 1130856
4759
+ 287787 415693
4760
+ 287787 503883
4761
+ 287787 634902
4762
+ 287787 634904
4763
+ 287787 634938
4764
+ 287787 634975
4765
+ 287787 647447
4766
+ 288107 1123215
4767
+ 289085 689152
4768
+ 289088 689152
4769
+ 289779 289780
4770
+ 289779 801170
4771
+ 289780 1128453
4772
+ 289780 1153784
4773
+ 289780 801170
4774
+ 289781 1128453
4775
+ 289781 1153784
4776
+ 289781 289780
4777
+ 289781 801170
4778
+ 289885 1115701
4779
+ 289885 20924
4780
+ 289945 48550
4781
+ 292277 578845
4782
+ 293271 293285
4783
+ 293974 1125469
4784
+ 294030 20924
4785
+ 294126 649944
4786
+ 300806 1133010
4787
+ 300806 29723
4788
+ 300806 396412
4789
+ 300806 6818
4790
+ 302545 1152858
4791
+ 307015 1131198
4792
+ 307015 335733
4793
+ 307015 39474
4794
+ 307015 643199
4795
+ 307336 285675
4796
+ 307336 708945
4797
+ 307656 1131360
4798
+ 307656 270085
4799
+ 310530 38839
4800
+ 310653 159897
4801
+ 314459 1121603
4802
+ 315789 1138027
4803
+ 315789 1139195
4804
+ 318071 1153014
4805
+ 318187 1116922
4806
+ 321004 1117049
4807
+ 321861 1117089
4808
+ 325314 1122704
4809
+ 330148 184918
4810
+ 330148 23502
4811
+ 330208 469504
4812
+ 330208 99025
4813
+ 334153 1117618
4814
+ 335042 1117653
4815
+ 335042 289085
4816
+ 335733 643199
4817
+ 337766 110162
4818
+ 340078 928873
4819
+ 340078 949217
4820
+ 340299 74427
4821
+ 341188 1117942
4822
+ 341188 682666
4823
+ 342802 2695
4824
+ 346243 521251
4825
+ 346292 1152958
4826
+ 346292 284023
4827
+ 348305 193352
4828
+ 350319 193932
4829
+ 354004 1118546
4830
+ 358866 358894
4831
+ 358866 79809
4832
+ 358884 358894
4833
+ 358887 358894
4834
+ 358887 79809
4835
+ 360028 1118823
4836
+ 365294 7430
4837
+ 367312 1119211
4838
+ 367312 746058
4839
+ 368431 30901
4840
+ 368605 1153003
4841
+ 368657 400455
4842
+ 370366 1140040
4843
+ 370366 641956
4844
+ 370366 928873
4845
+ 375605 1119505
4846
+ 375825 1119623
4847
+ 376704 1119654
4848
+ 377303 1129572
4849
+ 379288 67633
4850
+ 380341 60560
4851
+ 384428 1120019
4852
+ 385067 272345
4853
+ 385572 1120084
4854
+ 387795 128540
4855
+ 389715 107251
4856
+ 389715 107252
4857
+ 390693 1131639
4858
+ 395540 1130676
4859
+ 395553 395547
4860
+ 395553 684972
4861
+ 395725 1135115
4862
+ 395725 1153933
4863
+ 397488 1120643
4864
+ 397488 1134865
4865
+ 397590 1120650
4866
+ 399339 1120731
4867
+ 399370 60159
4868
+ 400356 1120777
4869
+ 400356 66990
4870
+ 400455 368657
4871
+ 400473 131117
4872
+ 408885 1154173
4873
+ 409255 1153097
4874
+ 415693 254923
4875
+ 416867 1121537
4876
+ 416964 127940
4877
+ 421481 375825
4878
+ 423816 1134865
4879
+ 423816 48781
4880
+ 424540 48555
4881
+ 427606 1050679
4882
+ 427606 1131634
4883
+ 427606 1138968
4884
+ 427606 62329
4885
+ 430329 127940
4886
+ 430574 1105622
4887
+ 430711 1132416
4888
+ 430711 671052
4889
+ 431206 662572
4890
+ 440815 645571
4891
+ 444191 1154068
4892
+ 444191 6910
4893
+ 445938 315266
4894
+ 446610 300071
4895
+ 447224 164885
4896
+ 449841 1123093
4897
+ 458439 1123493
4898
+ 459206 1123530
4899
+ 459213 1123530
4900
+ 459214 1123530
4901
+ 459216 1123530
4902
+ 459216 593210
4903
+ 466170 66794
4904
+ 467383 1128977
4905
+ 467383 116553
4906
+ 486840 1128975
4907
+ 486840 595063
4908
+ 503877 1131374
4909
+ 503877 1153577
4910
+ 503877 1154076
4911
+ 503883 1131374
4912
+ 503883 1153577
4913
+ 503883 1154076
4914
+ 503883 577331
4915
+ 503883 646809
4916
+ 503883 646836
4917
+ 503883 646913
4918
+ 503883 647413
4919
+ 503883 647447
4920
+ 503893 1153577
4921
+ 503893 33904
4922
+ 503893 646837
4923
+ 509379 1125393
4924
+ 513189 1125597
4925
+ 513189 573964
4926
+ 513189 576691
4927
+ 513189 787016
4928
+ 519318 1125906
4929
+ 519353 1125909
4930
+ 520471 1125953
4931
+ 521183 1125992
4932
+ 521183 521207
4933
+ 521183 521251
4934
+ 521207 521269
4935
+ 521251 1125992
4936
+ 521252 1125992
4937
+ 521269 1125993
4938
+ 521855 519353
4939
+ 522338 1132864
4940
+ 522338 683360
4941
+ 523010 1126044
4942
+ 523010 1140543
4943
+ 523394 714975
4944
+ 523574 1154229
4945
+ 523574 523394
4946
+ 523574 653441
4947
+ 523574 714289
4948
+ 529165 1126315
4949
+ 531348 531351
4950
+ 531351 531348
4951
+ 545647 582511
4952
+ 559804 653441
4953
+ 559804 714289
4954
+ 560936 562123
4955
+ 560936 91581
4956
+ 561364 642827
4957
+ 561568 153063
4958
+ 561581 561582
4959
+ 561581 646440
4960
+ 561582 561581
4961
+ 561593 1131223
4962
+ 561595 561581
4963
+ 561595 561582
4964
+ 561610 561595
4965
+ 561611 561595
4966
+ 561611 561610
4967
+ 561613 153063
4968
+ 561613 561568
4969
+ 561674 1127541
4970
+ 561674 561581
4971
+ 561674 562067
4972
+ 561789 1127551
4973
+ 561789 561674
4974
+ 561789 562067
4975
+ 561809 1127558
4976
+ 561809 1131300
4977
+ 561809 562067
4978
+ 562067 1127566
4979
+ 562123 560936
4980
+ 562940 1127619
4981
+ 562940 61417
4982
+ 563613 1129572
4983
+ 563613 31927
4984
+ 566653 3085
4985
+ 566653 566664
4986
+ 566664 3085
4987
+ 567005 1127810
4988
+ 567018 1127812
4989
+ 568857 1129629
4990
+ 568857 1153816
4991
+ 573535 693143
4992
+ 573553 1129608
4993
+ 573553 1135750
4994
+ 573553 1138970
4995
+ 573553 171954
4996
+ 573553 820662
4997
+ 573964 513189
4998
+ 573964 576691
4999
+ 573964 787016
5000
+ 574009 594900
5001
+ 574264 576795
5002
+ 574264 815096
5003
+ 575077 117316
5004
+ 575077 579008
5005
+ 575077 593544
5006
+ 575077 594649
5007
+ 575077 608190
5008
+ 575077 608191
5009
+ 575077 66556
5010
+ 575077 94641
5011
+ 575292 1131734
5012
+ 575292 1138968
5013
+ 575402 1129778
5014
+ 575795 1128975
5015
+ 575795 595063
5016
+ 576257 1153943
5017
+ 576257 594649
5018
+ 576362 1129629
5019
+ 576362 286500
5020
+ 576362 568857
5021
+ 576691 1128198
5022
+ 576725 576795
5023
+ 576795 1128201
5024
+ 576973 1128208
5025
+ 576973 58758
5026
+ 577227 1131752
5027
+ 577331 1128227
5028
+ 578306 578347
5029
+ 578309 578347
5030
+ 578337 1132486
5031
+ 578337 236759
5032
+ 578337 696345
5033
+ 578337 696346
5034
+ 578337 99023
5035
+ 578347 578309
5036
+ 578365 578306
5037
+ 578365 578309
5038
+ 578646 1128291
5039
+ 578646 1128319
5040
+ 578646 1153899
5041
+ 578646 1153900
5042
+ 578646 578645
5043
+ 578646 578649
5044
+ 578650 1128291
5045
+ 578650 1153853
5046
+ 578650 578649
5047
+ 578669 1128943
5048
+ 578669 1128978
5049
+ 578845 578645
5050
+ 578845 593240
5051
+ 578845 593559
5052
+ 578845 593560
5053
+ 578898 578646
5054
+ 579008 1128943
5055
+ 579008 1128978
5056
+ 579008 248425
5057
+ 579008 593921
5058
+ 579008 594387
5059
+ 579108 1128314
5060
+ 582139 1128425
5061
+ 582139 1130680
5062
+ 582343 1128437
5063
+ 582349 1128437
5064
+ 582511 545647
5065
+ 589923 590022
5066
+ 591016 1128856
5067
+ 591016 591017
5068
+ 591017 1128856
5069
+ 592826 1128935
5070
+ 592830 1128935
5071
+ 592973 592975
5072
+ 592973 592986
5073
+ 592975 592986
5074
+ 592986 592975
5075
+ 592993 1128943
5076
+ 592993 1128978
5077
+ 592993 593105
5078
+ 592996 1128943
5079
+ 592996 1128978
5080
+ 593022 1128946
5081
+ 593060 1128977
5082
+ 593091 593248
5083
+ 593104 1129015
5084
+ 593104 593921
5085
+ 593104 593942
5086
+ 593155 593240
5087
+ 593201 594649
5088
+ 593209 593210
5089
+ 593240 1136791
5090
+ 593240 593210
5091
+ 593328 87363
5092
+ 593329 87363
5093
+ 593544 1128982
5094
+ 593559 593560
5095
+ 593560 593559
5096
+ 593942 1129015
5097
+ 593942 1153896
5098
+ 594011 1153896
5099
+ 594011 593942
5100
+ 594039 1129015
5101
+ 594047 1129629
5102
+ 594047 650834
5103
+ 594119 1129021
5104
+ 594483 1129040
5105
+ 594511 1153899
5106
+ 594511 1153900
5107
+ 601462 1129367
5108
+ 601462 1129368
5109
+ 601462 1129369
5110
+ 604073 1129494
5111
+ 606479 1129610
5112
+ 608190 608191
5113
+ 608190 70970
5114
+ 608191 70970
5115
+ 608326 1129683
5116
+ 608326 1131611
5117
+ 610529 1153946
5118
+ 612306 1131719
5119
+ 612306 193347
5120
+ 613409 1129907
5121
+ 616336 689439
5122
+ 617378 1130069
5123
+ 617575 1130080
5124
+ 621555 1130243
5125
+ 626530 1130454
5126
+ 626530 1154012
5127
+ 626530 626531
5128
+ 626530 626574
5129
+ 626531 1130454
5130
+ 626531 626574
5131
+ 626574 1154012
5132
+ 626999 139547
5133
+ 626999 911198
5134
+ 627024 911198
5135
+ 628458 628459
5136
+ 628500 1130600
5137
+ 628500 188471
5138
+ 628667 628668
5139
+ 628751 628764
5140
+ 628751 950986
5141
+ 628815 1130567
5142
+ 628888 628764
5143
+ 630817 1130676
5144
+ 630890 1130678
5145
+ 631015 396412
5146
+ 631015 631052
5147
+ 632796 884094
5148
+ 632874 40583
5149
+ 633030 633031
5150
+ 633031 633030
5151
+ 633081 1130780
5152
+ 633081 31489
5153
+ 633081 40605
5154
+ 633081 632796
5155
+ 633081 632874
5156
+ 633585 40605
5157
+ 633585 633721
5158
+ 633585 884094
5159
+ 633721 1130915
5160
+ 634902 634975
5161
+ 634904 634975
5162
+ 634938 1130847
5163
+ 640617 259702
5164
+ 641956 1131149
5165
+ 641956 1131150
5166
+ 641976 1131150
5167
+ 641976 672070
5168
+ 641976 672071
5169
+ 642593 1131163
5170
+ 642621 1131164
5171
+ 642621 1131258
5172
+ 642621 16819
5173
+ 642641 645084
5174
+ 642681 1131167
5175
+ 642681 1131236
5176
+ 642681 644093
5177
+ 642681 644334
5178
+ 642681 644441
5179
+ 642681 646286
5180
+ 642798 1131172
5181
+ 642798 644470
5182
+ 642847 642681
5183
+ 642894 1131180
5184
+ 642894 1131236
5185
+ 642894 1131301
5186
+ 642894 1131312
5187
+ 642894 1131335
5188
+ 642894 642798
5189
+ 642894 643239
5190
+ 642894 643485
5191
+ 642894 645046
5192
+ 642894 645870
5193
+ 642894 646286
5194
+ 642894 646334
5195
+ 642894 646357
5196
+ 642920 1131184
5197
+ 642920 642930
5198
+ 642930 1131184
5199
+ 643003 1131189
5200
+ 643069 1131192
5201
+ 643199 1131198
5202
+ 643221 1131236
5203
+ 643221 1131257
5204
+ 643221 1131305
5205
+ 643221 1131312
5206
+ 643221 1131334
5207
+ 643221 1131335
5208
+ 643221 126927
5209
+ 643221 16819
5210
+ 643221 642894
5211
+ 643221 643239
5212
+ 643221 643485
5213
+ 643221 644093
5214
+ 643221 644448
5215
+ 643221 644577
5216
+ 643221 645897
5217
+ 643221 646286
5218
+ 643239 1131312
5219
+ 643239 1131334
5220
+ 643239 126927
5221
+ 643239 16819
5222
+ 643239 643221
5223
+ 643239 644093
5224
+ 643485 643221
5225
+ 643695 1154068
5226
+ 643695 643597
5227
+ 643734 643777
5228
+ 643735 643734
5229
+ 644093 1131236
5230
+ 644361 645016
5231
+ 644363 645016
5232
+ 644427 1131257
5233
+ 644427 644577
5234
+ 644441 1131258
5235
+ 644441 644334
5236
+ 644448 1131258
5237
+ 644448 1131314
5238
+ 644448 644470
5239
+ 644448 644494
5240
+ 644494 1131314
5241
+ 644494 644470
5242
+ 644577 1131301
5243
+ 644577 1131305
5244
+ 644577 1131334
5245
+ 644577 643485
5246
+ 644577 645897
5247
+ 644843 1131274
5248
+ 644843 645016
5249
+ 645016 1154071
5250
+ 645046 1131301
5251
+ 645046 646334
5252
+ 645046 646357
5253
+ 645084 1131277
5254
+ 645088 1131277
5255
+ 645088 645084
5256
+ 645452 645016
5257
+ 645571 645897
5258
+ 645870 1131301
5259
+ 645870 644494
5260
+ 645897 126927
5261
+ 646286 6913
5262
+ 646289 6913
5263
+ 646334 646357
5264
+ 646357 646334
5265
+ 646412 1131330
5266
+ 646809 1131374
5267
+ 646809 1154076
5268
+ 646809 646913
5269
+ 646900 1131359
5270
+ 646900 1131360
5271
+ 646900 1132731
5272
+ 646900 646913
5273
+ 646913 1131359
5274
+ 646913 647413
5275
+ 647315 1154076
5276
+ 647447 577331
5277
+ 648106 1131421
5278
+ 648106 648112
5279
+ 648112 1131420
5280
+ 648112 1131421
5281
+ 648112 648106
5282
+ 648112 648121
5283
+ 648121 1131420
5284
+ 648121 648106
5285
+ 648232 567005
5286
+ 648369 1131414
5287
+ 649730 1131464
5288
+ 649731 1131464
5289
+ 649731 123825
5290
+ 649739 1131464
5291
+ 650807 1131549
5292
+ 650807 1131565
5293
+ 650814 1131550
5294
+ 653441 1134346
5295
+ 653441 189774
5296
+ 653628 1133930
5297
+ 654177 1131728
5298
+ 654326 1131741
5299
+ 654326 654339
5300
+ 654339 1131741
5301
+ 654339 654326
5302
+ 654519 1131754
5303
+ 656048 1131828
5304
+ 656231 103531
5305
+ 662250 1132073
5306
+ 662416 1123188
5307
+ 662572 431206
5308
+ 671052 1132406
5309
+ 671269 1132418
5310
+ 671269 1132443
5311
+ 671269 1132461
5312
+ 671269 1154123
5313
+ 671269 1154124
5314
+ 671293 1132443
5315
+ 672064 6130
5316
+ 672070 1132443
5317
+ 672070 1154123
5318
+ 672070 1154124
5319
+ 672070 6130
5320
+ 672070 672071
5321
+ 672071 1132443
5322
+ 672071 1132461
5323
+ 672071 6130
5324
+ 672071 672070
5325
+ 675649 1132505
5326
+ 675756 1132505
5327
+ 675756 675649
5328
+ 675847 1132505
5329
+ 682508 1132857
5330
+ 683294 1132857
5331
+ 683294 682508
5332
+ 683355 683404
5333
+ 683360 683404
5334
+ 683404 683355
5335
+ 684531 684372
5336
+ 684972 395547
5337
+ 684986 395553
5338
+ 684986 684972
5339
+ 687401 273949
5340
+ 688824 1133008
5341
+ 688849 1133010
5342
+ 689152 289085
5343
+ 693143 573535
5344
+ 693143 695284
5345
+ 696343 1133428
5346
+ 696345 236759
5347
+ 696345 2658
5348
+ 696345 696342
5349
+ 696345 696346
5350
+ 709113 1134031
5351
+ 709518 1134056
5352
+ 711994 1134197
5353
+ 714208 189774
5354
+ 714256 1154232
5355
+ 714256 1154233
5356
+ 714256 189572
5357
+ 714256 714260
5358
+ 714256 714748
5359
+ 714260 559804
5360
+ 714260 714879
5361
+ 714289 1154230
5362
+ 714289 1154232
5363
+ 714289 189571
5364
+ 714289 559804
5365
+ 714289 714208
5366
+ 733167 1154276
5367
+ 733534 1135122
5368
+ 733534 948147
5369
+ 733576 1135082
5370
+ 734406 1135115
5371
+ 735303 735311
5372
+ 738941 1135455
5373
+ 738941 162080
5374
+ 739280 367312
5375
+ 739280 746058
5376
+ 739707 950305
5377
+ 739816 1135894
5378
+ 739816 1140543
5379
+ 739816 1140548
5380
+ 746058 367312
5381
+ 751408 1135899
5382
+ 752684 1135955
5383
+ 753047 1136631
5384
+ 753047 1136634
5385
+ 753047 753070
5386
+ 753047 753264
5387
+ 753047 753265
5388
+ 753047 767763
5389
+ 753070 753047
5390
+ 753070 753264
5391
+ 753070 767763
5392
+ 753264 753047
5393
+ 753264 767763
5394
+ 753265 753047
5395
+ 754594 1136040
5396
+ 755082 1136393
5397
+ 756061 1136110
5398
+ 756061 1136446
5399
+ 756061 1136447
5400
+ 762980 1136446
5401
+ 762980 1136447
5402
+ 763009 1136446
5403
+ 763009 1136447
5404
+ 763009 1136449
5405
+ 763010 1136446
5406
+ 763010 1136447
5407
+ 763010 1136449
5408
+ 763010 762980
5409
+ 767763 1136631
5410
+ 779960 1137140
5411
+ 787016 573978
5412
+ 814836 1138619
5413
+ 815073 205196
5414
+ 815096 205196
5415
+ 817774 820661
5416
+ 824245 1139009
5417
+ 851968 1140231
5418
+ 853114 19621
5419
+ 853114 853116
5420
+ 853114 853155
5421
+ 853115 19621
5422
+ 853115 853114
5423
+ 853115 853116
5424
+ 853115 853155
5425
+ 853116 19621
5426
+ 853116 853155
5427
+ 853118 1140289
5428
+ 853155 853118
5429
+ 954315 1155073
Graph/cora/cora.content ADDED
The diff for this file is too large to render. See raw diff
 
Image/run_all_models.py DELETED
@@ -1,60 +0,0 @@
1
- #bug
2
- import os
3
- import subprocess
4
- from pathlib import Path
5
-
6
- # 模型列表
7
- models = [
8
- 'AlexNet', 'DenseNet', 'EfficientNet', 'GoogLeNet', 'LeNet5',
9
- 'MobileNetv1', 'MobileNetv2', 'MobileNetv3', 'ResNet', 'SENet',
10
- 'ShuffleNet', 'ShuffleNetv2', 'SwinTransformer', 'VGG', 'ViT', 'ZFNet'
11
- ]
12
-
13
-
14
- def run_training(model_name, train_type, script_dir):
15
- """运行指定模型的训练"""
16
- model_code_dir = os.path.join(script_dir, model_name, 'code')
17
- train_script = os.path.join(model_code_dir, 'train.py')
18
- dataset_path = os.path.join(script_dir, 'AlexNet', 'dataset')
19
-
20
- if not os.path.exists(train_script):
21
- print(f"警告: {train_script} 不存在,跳过")
22
- return
23
-
24
- # 切换到模型的code目录
25
- os.chdir(model_code_dir)
26
-
27
- cmd = [
28
- 'python', 'train.py', # 使用相对路径
29
- '--train-type', train_type,
30
- '--dataset-path', dataset_path, # 保持dataset_path为绝对路径
31
- '--gpu', '1'
32
- ]
33
-
34
- print(f"\n开始训练 {model_name} (train_type={train_type})")
35
- print(f"工作目录: {os.getcwd()}")
36
- print(f"执行命令: {' '.join(cmd)}")
37
-
38
- try:
39
- subprocess.run(cmd, check=True)
40
- print(f"{model_name} (train_type={train_type}) 训练完成")
41
- except subprocess.CalledProcessError as e:
42
- print(f"错误: {model_name} (train_type={train_type}) 训练失败")
43
- print(f"错误信息: {str(e)}")
44
-
45
- def main():
46
- # 获取脚本的绝对路径
47
- script_dir = os.path.dirname(os.path.abspath(__file__))
48
- original_dir = os.getcwd() # 保存原始工作目录
49
-
50
- try:
51
- # 遍历所有模型和训练类型
52
- for model in models:
53
- for train_type in ['0', '1', '2']:
54
- run_training(model, train_type, script_dir)
55
- finally:
56
- # 恢复原始工作目录
57
- os.chdir(original_dir)
58
-
59
- if __name__ == '__main__':
60
- main()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Image/utils/train_utils.py CHANGED
@@ -13,12 +13,18 @@ import torch.nn as nn
13
  import torch.optim as optim
14
  import time
15
  import os
16
- import json
17
  import logging
18
  import numpy as np
19
  from tqdm import tqdm
20
- from datetime import datetime
 
21
 
 
 
 
 
 
 
22
 
23
  def setup_logger(log_file):
24
  """配置日志记录器,如果日志文件存在则覆盖
@@ -56,100 +62,8 @@ def setup_logger(log_file):
56
 
57
  return logger
58
 
59
- def collect_embeddings(model, dataloader, device):
60
- """使用钩子机制收集模型中间层的特征向量
61
- Args:
62
- model: 模型
63
- dataloader: 数据加载器
64
- device: 设备
65
-
66
- Returns:
67
- embeddings: 嵌入向量列表
68
- indices: 数据索引列表
69
- """
70
- embeddings = []
71
- indices = []
72
- activation = {}
73
-
74
- def get_activation(name):
75
- def hook(model, input, output):
76
- # 只在需要时保存激活值,避免内存浪费
77
- if name not in activation or activation[name] is None:
78
- activation[name] = output.detach()
79
- return hook
80
-
81
- # 注册钩子到所有可能的特征提取层
82
- handles = []
83
- for name, module in model.named_modules(): # 使用named_modules代替named_children以获取所有子模块
84
- # 对可能包含特征的层注册钩子
85
- if isinstance(module, (nn.Conv2d, nn.Linear, nn.Sequential)):
86
- handles.append(module.register_forward_hook(get_activation(name)))
87
-
88
- model.eval()
89
- with torch.no_grad():
90
- # 首先获取一个batch来分析每层的输出维度
91
- inputs, _ = next(iter(dataloader))
92
- inputs = inputs.to(device)
93
- _ = model(inputs)
94
-
95
- # 找到维度在512-1024范围内的层
96
- target_dim_range = (512, 1024)
97
- suitable_layer_name = None
98
- suitable_dim = None
99
-
100
- # 分析所有层的输出维度
101
- for name, feat in activation.items():
102
- if feat is None:
103
- continue
104
- feat_dim = feat.view(feat.size(0), -1).size(1)
105
- if target_dim_range[0] <= feat_dim <= target_dim_range[1]:
106
- suitable_layer_name = name
107
- suitable_dim = feat_dim
108
- break
109
-
110
- if suitable_layer_name is None:
111
- raise ValueError("没有找到合适维度的特征层")
112
-
113
- print(f"选择的特征层: {suitable_layer_name}, 特征维度: {suitable_dim}")
114
-
115
- # 只保存层标识和维度
116
- layer_info = {
117
- 'layer_id': suitable_layer_name, # 使用完整的层标识,如 'conv2.0'
118
- 'dim': suitable_dim # 特征维度
119
- }
120
- with open('layer_info.json', 'w') as f:
121
- json.dump(layer_info, f)
122
-
123
- # 清除第一次运行的激活值
124
- activation.clear()
125
-
126
- # 现在处理所有数据
127
- for batch_idx, (inputs, targets) in enumerate(dataloader):
128
- inputs = inputs.to(device)
129
- _ = model(inputs)
130
-
131
- # 获取并处理特征
132
- features = activation[suitable_layer_name]
133
- flat_features = torch.flatten(features, start_dim=1)
134
- embeddings.append(flat_features.cpu().numpy())
135
- indices.extend(range(batch_idx * dataloader.batch_size,
136
- min((batch_idx + 1) * dataloader.batch_size,
137
- len(dataloader.dataset))))
138
-
139
- # 清除本次的激活值
140
- activation.clear()
141
-
142
- # 移除所有钩子
143
- for handle in handles:
144
- handle.remove()
145
-
146
- if len(embeddings) > 0:
147
- return np.vstack(embeddings), indices
148
- else:
149
- return np.array([]), indices
150
-
151
  def train_model(model, trainloader, testloader, epochs=200, lr=0.1, device='cuda:0',
152
- save_dir='./checkpoints', model_name='model',save_type='0'):
153
  """通用的模型训练函数
154
  Args:
155
  model: 要训练的模型
@@ -160,6 +74,7 @@ def train_model(model, trainloader, testloader, epochs=200, lr=0.1, device='cuda
160
  device: 训练设备,格式为'cuda:N',其中N为GPU编号(0,1,2,3)
161
  save_dir: 模型保存目录
162
  model_name: 模型名称
 
163
  """
164
  # 检查并设置GPU设备
165
  if not torch.cuda.is_available():
@@ -227,7 +142,7 @@ def train_model(model, trainloader, testloader, epochs=200, lr=0.1, device='cuda
227
  loss = criterion(outputs, targets)
228
  loss.backward()
229
  optimizer.step()
230
-
231
  train_loss += loss.item()
232
  _, predicted = outputs.max(1)
233
  total += targets.size(0)
@@ -238,7 +153,7 @@ def train_model(model, trainloader, testloader, epochs=200, lr=0.1, device='cuda
238
  'loss': f'{train_loss/(batch_idx+1):.3f}',
239
  'acc': f'{100.*correct/total:.2f}%'
240
  })
241
-
242
  # 每100步记录一次
243
  if batch_idx % 100 == 0:
244
  logger.info(f'Epoch: {epoch+1} | Batch: {batch_idx} | '
@@ -257,12 +172,12 @@ def train_model(model, trainloader, testloader, epochs=200, lr=0.1, device='cuda
257
  inputs, targets = inputs.to(device), targets.to(device)
258
  outputs = model(inputs)
259
  loss = criterion(outputs, targets)
260
-
261
  test_loss += loss.item()
262
  _, predicted = outputs.max(1)
263
  total += targets.size(0)
264
  correct += predicted.eq(targets).sum().item()
265
-
266
  # 更新进度条
267
  test_pbar.set_postfix({
268
  'loss': f'{test_loss/(batch_idx+1):.3f}',
@@ -274,17 +189,8 @@ def train_model(model, trainloader, testloader, epochs=200, lr=0.1, device='cuda
274
  logger.info(f'Epoch: {epoch+1} | Test Loss: {test_loss/(batch_idx+1):.3f} | '
275
  f'Test Acc: {acc:.2f}%')
276
 
277
- # 每5个epoch保存一次
278
  if (epoch + 1) % 1 == 0:
279
- # 创建epoch保存目录
280
- epoch_dir = os.path.join(save_dir, f'epoch_{epoch+1}')
281
- if not os.path.exists(epoch_dir):
282
- os.makedirs(epoch_dir)
283
-
284
- # 保存模型权重
285
- model_path = os.path.join(epoch_dir, 'subject_model.pth')
286
- torch.save(model.state_dict(), model_path)
287
-
288
  # 创建一个专门用于收集embedding的顺序dataloader
289
  ordered_loader = torch.utils.data.DataLoader(
290
  trainloader.dataset, # 使用相同的数据集
@@ -292,38 +198,16 @@ def train_model(model, trainloader, testloader, epochs=200, lr=0.1, device='cuda
292
  shuffle=False, # 确保顺序加载
293
  num_workers=trainloader.num_workers
294
  )
 
 
295
 
296
- # 收集并保存嵌入向量,使用顺序加载的dataloader
297
- embeddings, indices = collect_embeddings(model, ordered_loader, device)
298
-
299
- # 保存嵌入向量
300
- np.save(os.path.join(epoch_dir, 'train_data.npy'), embeddings)
301
-
302
- # 保存索引信息 - 仅保存数据点的索引列表
303
- with open(os.path.join(epoch_dir, 'index.json'), 'w') as f:
304
- json.dump(indices, f)
305
-
306
- # 如果是最佳精度,额外保存一份
307
- if acc > best_acc:
308
- logger.info(f'Best accuracy: {acc:.2f}%')
309
- best_dir = os.path.join(save_dir, 'best')
310
- if not os.path.exists(best_dir):
311
- os.makedirs(best_dir)
312
- # 复制最佳模型文件
313
- best_model_path = os.path.join(best_dir, 'subject_model.pth')
314
- torch.save(model.state_dict(), best_model_path)
315
- best_acc = acc
316
-
317
  scheduler.step()
318
 
319
- # 训练结束
320
- total_time = time.time() - start_time
321
- logger.info(f'训练完成! 总用时: {total_time/3600:.2f}小时')
322
- logger.info(f'最佳测试精度: {best_acc:.2f}%')
323
-
324
- def train_model_data_augmentation(model, epochs=200, lr=0.1, device='cuda:0',
325
- save_dir='../model', model_name='model',
326
- batch_size=128, num_workers=2, local_dataset_path=None):
327
  """使用数据增强训练模型
328
 
329
  数据增强方案说明:
@@ -354,15 +238,15 @@ def train_model_data_augmentation(model, epochs=200, lr=0.1, device='cuda:0',
354
  transforms.RandomHorizontalFlip(),
355
  transforms.RandomRotation(15),
356
  transforms.ColorJitter(
357
- brightness=0.2, # 亮度变化范围:[0.8, 1.2]
358
- contrast=0.2, # 对比度变化范围:[0.8, 1.2]
359
- saturation=0.2, # 饱和度变化范围:[0.8, 1.2]
360
- hue=0.1 # 色调变化范围:[-0.1, 0.1]
361
  ),
362
- transforms.RandomPerspective(distortion_scale=0.2, p=0.5), # 50%概率进行透视变换
363
  transforms.ToTensor(),
364
  transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),
365
- transforms.RandomErasing(p=0.5, scale=(0.02, 0.33), ratio=(0.3, 3.3)) # 50%概率随机擦除
366
  ])
367
 
368
  # 获取数据加载器
@@ -375,11 +259,11 @@ def train_model_data_augmentation(model, epochs=200, lr=0.1, device='cuda:0',
375
  trainset, batch_size=batch_size, shuffle=True, num_workers=num_workers)
376
 
377
  # 调用通用训练函数
378
- train_model(model, trainloader, testloader, epochs, lr, device, save_dir, model_name,save_type='1')
379
 
380
  def train_model_backdoor(model, poison_ratio=0.1, target_label=0, epochs=200, lr=0.1,
381
- device='cuda:0', save_dir='../model', model_name='model',
382
- batch_size=128, num_workers=2, local_dataset_path=None):
383
  """训练带后门的模型
384
 
385
  后门攻击方案说明:
@@ -431,7 +315,7 @@ def train_model_backdoor(model, poison_ratio=0.1, target_label=0, epochs=200, lr
431
  trainset, batch_size=batch_size, shuffle=True, num_workers=num_workers)
432
 
433
  # 训练模型
434
- train_model(model, poisoned_trainloader, testloader, epochs, lr, device, save_dir, model_name,save_type='2')
435
 
436
  # 恢复原始数据用于验证
437
  trainset.targets = original_targets
@@ -464,8 +348,8 @@ def train_model_backdoor(model, poison_ratio=0.1, target_label=0, epochs=200, lr
464
 
465
  # 转换为张量并标准化
466
  trigger_validation = torch.tensor(trigger_validation).float().permute(0, 3, 1, 2) / 255.0
467
- trigger_validation = F.normalize(trigger_validation,
468
- mean=(0.4914, 0.4822, 0.4465),
469
  std=(0.2023, 0.1994, 0.2010))
470
 
471
  # 在带触发器的验证集上评估模型
@@ -481,4 +365,4 @@ def train_model_backdoor(model, poison_ratio=0.1, target_label=0, epochs=200, lr
481
  correct += predicted.eq(targets).sum().item()
482
 
483
  attack_success_rate = 100. * correct / total
484
- print(f'Attack success rate on triggered samples: {attack_success_rate:.2f}%')
 
13
  import torch.optim as optim
14
  import time
15
  import os
 
16
  import logging
17
  import numpy as np
18
  from tqdm import tqdm
19
+ import sys
20
+ from pathlib import Path
21
 
22
+ # 将项目根目录添加到Python路径中
23
+ current_dir = Path(__file__).resolve().parent
24
+ project_root = current_dir.parent.parent
25
+ sys.path.append(str(project_root))
26
+
27
+ from ttv_utils import time_travel_visualization
28
 
29
  def setup_logger(log_file):
30
  """配置日志记录器,如果日志文件存在则覆盖
 
62
 
63
  return logger
64
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
65
  def train_model(model, trainloader, testloader, epochs=200, lr=0.1, device='cuda:0',
66
+ save_dir='./checkpoints', model_name='model', save_type='0'):
67
  """通用的模型训练函数
68
  Args:
69
  model: 要训练的模型
 
74
  device: 训练设备,格式为'cuda:N',其中N为GPU编号(0,1,2,3)
75
  save_dir: 模型保存目录
76
  model_name: 模型名称
77
+ save_type: 保存类型,0为普通训练,1为数据增强训练,2为后门训练
78
  """
79
  # 检查并设置GPU设备
80
  if not torch.cuda.is_available():
 
142
  loss = criterion(outputs, targets)
143
  loss.backward()
144
  optimizer.step()
145
+
146
  train_loss += loss.item()
147
  _, predicted = outputs.max(1)
148
  total += targets.size(0)
 
153
  'loss': f'{train_loss/(batch_idx+1):.3f}',
154
  'acc': f'{100.*correct/total:.2f}%'
155
  })
156
+
157
  # 每100步记录一次
158
  if batch_idx % 100 == 0:
159
  logger.info(f'Epoch: {epoch+1} | Batch: {batch_idx} | '
 
172
  inputs, targets = inputs.to(device), targets.to(device)
173
  outputs = model(inputs)
174
  loss = criterion(outputs, targets)
175
+
176
  test_loss += loss.item()
177
  _, predicted = outputs.max(1)
178
  total += targets.size(0)
179
  correct += predicted.eq(targets).sum().item()
180
+
181
  # 更新进度条
182
  test_pbar.set_postfix({
183
  'loss': f'{test_loss/(batch_idx+1):.3f}',
 
189
  logger.info(f'Epoch: {epoch+1} | Test Loss: {test_loss/(batch_idx+1):.3f} | '
190
  f'Test Acc: {acc:.2f}%')
191
 
192
+ # 每1个epoch保存一次
193
  if (epoch + 1) % 1 == 0:
 
 
 
 
 
 
 
 
 
194
  # 创建一个专门用于收集embedding的顺序dataloader
195
  ordered_loader = torch.utils.data.DataLoader(
196
  trainloader.dataset, # 使用相同的数据集
 
198
  shuffle=False, # 确保顺序加载
199
  num_workers=trainloader.num_workers
200
  )
201
+ save_model = time_travel_visualization(model, ordered_loader, device, save_dir, model_name, interval = 1)
202
+ save_model.save()
203
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
204
  scheduler.step()
205
 
206
+ logger.info('训练完成!')
207
+
208
+ def train_model_data_augmentation(model, epochs=200, lr=0.1, device='cuda:0',
209
+ save_dir='./checkpoints', model_name='model',
210
+ batch_size=128, num_workers=2, local_dataset_path=None):
 
 
 
211
  """使用数据增强训练模型
212
 
213
  数据增强方案说明:
 
238
  transforms.RandomHorizontalFlip(),
239
  transforms.RandomRotation(15),
240
  transforms.ColorJitter(
241
+ brightness=0.2,
242
+ contrast=0.2,
243
+ saturation=0.2,
244
+ hue=0.1
245
  ),
246
+ transforms.RandomPerspective(distortion_scale=0.2, p=0.5),
247
  transforms.ToTensor(),
248
  transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),
249
+ transforms.RandomErasing(p=0.5, scale=(0.02, 0.33), ratio=(0.3, 3.3))
250
  ])
251
 
252
  # 获取数据加载器
 
259
  trainset, batch_size=batch_size, shuffle=True, num_workers=num_workers)
260
 
261
  # 调用通用训练函数
262
+ train_models(model, trainloader, testloader, epochs, lr, device, save_dir, model_name, save_type='1')
263
 
264
  def train_model_backdoor(model, poison_ratio=0.1, target_label=0, epochs=200, lr=0.1,
265
+ device='cuda:0', save_dir='./checkpoints', model_name='model',
266
+ batch_size=128, num_workers=2, local_dataset_path=None):
267
  """训练带后门的模型
268
 
269
  后门攻击方案说明:
 
315
  trainset, batch_size=batch_size, shuffle=True, num_workers=num_workers)
316
 
317
  # 训练模型
318
+ train_models(model, poisoned_trainloader, testloader, epochs, lr, device, save_dir, model_name, save_type='2')
319
 
320
  # 恢复原始数据用于验证
321
  trainset.targets = original_targets
 
348
 
349
  # 转换为张量并标准化
350
  trigger_validation = torch.tensor(trigger_validation).float().permute(0, 3, 1, 2) / 255.0
351
+ trigger_validation = F.normalize(trigger_validation,
352
+ mean=(0.4914, 0.4822, 0.4465),
353
  std=(0.2023, 0.1994, 0.2010))
354
 
355
  # 在带触发器的验证集上评估模型
 
365
  correct += predicted.eq(targets).sum().item()
366
 
367
  attack_success_rate = 100. * correct / total
368
+ print(f'Attack success rate on triggered samples: {attack_success_rate:.2f}%')
feature_predict/AlexNet/code/layer_info.json DELETED
@@ -1 +0,0 @@
1
- {"layer_id": "conv2", "dim": 1024}
 
 
feature_predict/AlexNet/code/model.py DELETED
@@ -1,89 +0,0 @@
1
- '''
2
- AlexNet in Pytorch
3
- '''
4
-
5
- import torch
6
- import torch.nn as nn
7
-
8
- class AlexNet(nn.Module): # 训练 ALexNet
9
- '''
10
- AlexNet模型
11
- '''
12
- def __init__(self,num_classes=10):
13
- super(AlexNet,self).__init__()
14
- # 五个卷积层 输入 32 * 32 * 3
15
- self.conv1 = nn.Sequential(
16
- nn.Conv2d(in_channels=3, out_channels=6, kernel_size=3, stride=1, padding=1), # (32-3+2)/1+1 = 32
17
- nn.ReLU(),
18
- nn.MaxPool2d(kernel_size=2, stride=2, padding=0) # (32-2)/2+1 = 16
19
- )
20
- self.conv2 = nn.Sequential( # 输入 16 * 16 * 6
21
- nn.Conv2d(in_channels=6, out_channels=16, kernel_size=3, stride=1, padding=1), # (16-3+2)/1+1 = 16
22
- nn.ReLU(),
23
- nn.MaxPool2d(kernel_size=2, stride=2, padding=0) # (16-2)/2+1 = 8
24
- )
25
- self.conv3 = nn.Sequential( # 输入 8 * 8 * 16
26
- nn.Conv2d(in_channels=16, out_channels=32, kernel_size=3, stride=1, padding=1), # (8-3+2)/1+1 = 8
27
- nn.ReLU(),
28
- nn.MaxPool2d(kernel_size=2, stride=2, padding=0) # (8-2)/2+1 = 4
29
- )
30
- self.conv4 = nn.Sequential( # 输入 4 * 4 * 64
31
- nn.Conv2d(in_channels=32, out_channels=64, kernel_size=3, stride=1, padding=1), # (4-3+2)/1+1 = 4
32
- nn.ReLU(),
33
- nn.MaxPool2d(kernel_size=2, stride=2, padding=0) # (4-2)/2+1 = 2
34
- )
35
- self.conv5 = nn.Sequential( # 输入 2 * 2 * 128
36
- nn.Conv2d(in_channels=64, out_channels=128, kernel_size=3, stride=1, padding=1),# (2-3+2)/1+1 = 2
37
- nn.ReLU(),
38
- nn.MaxPool2d(kernel_size=2, stride=2, padding=0) # (2-2)/2+1 = 1
39
- ) # 最后一层卷积层,输出 1 * 1 * 128
40
- # 全连接层
41
- self.dense = nn.Sequential(
42
- nn.Linear(128,120),
43
- nn.ReLU(),
44
- nn.Linear(120,84),
45
- nn.ReLU(),
46
- nn.Linear(84,num_classes)
47
- )
48
-
49
- # 初始化权重
50
- self._initialize_weights()
51
-
52
- def forward(self,x):
53
- x = self.conv1(x)
54
- x = self.conv2(x)
55
- x = self.conv3(x)
56
- x = self.conv4(x)
57
- x = self.conv5(x)
58
- x = x.view(x.size()[0],-1)
59
- x = self.dense(x)
60
- return x
61
-
62
- def _initialize_weights(self):
63
- for m in self.modules():
64
- if isinstance(m, nn.Conv2d):
65
- nn.init.kaiming_normal_(m.weight, mode='fan_out', nonlinearity='relu')
66
- if m.bias is not None:
67
- nn.init.constant_(m.bias, 0)
68
- elif isinstance(m, nn.Linear):
69
- nn.init.normal_(m.weight, 0, 0.01)
70
- if m.bias is not None:
71
- nn.init.constant_(m.bias, 0)
72
-
73
- def predict(self,x):
74
- x = self.conv3(x)
75
- x = self.conv4(x)
76
- x = self.conv5(x)
77
- x = x.view(x.size()[0],-1)
78
- x = self.dense(x)
79
- return x
80
-
81
- def test():
82
- net = AlexNet()
83
- x = torch.randn(2,3,32,32)
84
- y = net(x)
85
- print(y.size())
86
- from torchinfo import summary
87
- device = 'cuda' if torch.cuda.is_available() else 'cpu'
88
- net = net.to(device)
89
- summary(net,(3,32,32))
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
feature_predict/AlexNet/code/train.py DELETED
@@ -1,41 +0,0 @@
1
- import sys
2
- import os
3
- sys.path.append(os.path.dirname(os.path.dirname(os.path.dirname(os.path.abspath(__file__)))))
4
- from utils.dataset_utils import get_cifar10_dataloaders
5
- from utils.train_utils import train_model, train_model_data_augmentation, train_model_backdoor
6
- from utils.parse_args import parse_args
7
- from model import AlexNet
8
- #args.train_type #0 for normal train, 1 for data aug train,2 for back door train
9
-
10
- def main():
11
- # 解析命令行参数
12
- args = parse_args()
13
- # 创建模型
14
- model = AlexNet()
15
- if args.train_type == '0':
16
- # 获取数据加载器
17
- trainloader, testloader = get_cifar10_dataloaders(batch_size=args.batch_size, local_dataset_path=args.dataset_path)
18
- # 训练模型
19
- train_model(
20
- model=model,
21
- trainloader=trainloader,
22
- testloader=testloader,
23
- epochs=args.epochs,
24
- lr=args.lr,
25
- device=f'cuda:{args.gpu}',
26
- save_dir='../model',
27
- model_name='alexnet'
28
- )
29
- elif args.train_type == '1':
30
- train_model_data_augmentation(model, epochs=args.epochs, lr=args.lr, device=f'cuda:{args.gpu}',
31
- save_dir='../model', model_name='alexnet',
32
- batch_size=args.batch_size, num_workers=args.num_workers,
33
- local_dataset_path=args.dataset_path)
34
- elif args.train_type == '2':
35
- train_model_backdoor(model, poison_ratio=0.1, target_label=0, epochs=args.epochs, lr=args.lr,
36
- device=f'cuda:{args.gpu}', save_dir='../model', model_name='alexnet',
37
- batch_size=args.batch_size, num_workers=args.num_workers,
38
- local_dataset_path=args.dataset_path)
39
-
40
- if __name__ == '__main__':
41
- main()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
feature_predict/AlexNet/dataset/.gitkeep DELETED
File without changes
feature_predict/AlexNet/model/.gitkeep DELETED
File without changes
feature_predict/AlexNet/model/0/epoch_195/index.json DELETED
The diff for this file is too large to render. See raw diff
 
feature_predict/AlexNet/model/0/epoch_195/subject_model.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:662e4f4b36359b75f709e91794ea0f37104f081a17f54b0d358137370c5d52a7
3
- size 504030
 
 
 
 
feature_predict/AlexNet/model/0/epoch_195/train_data.npy DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:22583767b1623d5ef64066148a95cb7bf0f1715150345cb0507e3270d2f6c7af
3
- size 204800128
 
 
 
 
feature_predict/AlexNet/model/0/epoch_200/index.json DELETED
The diff for this file is too large to render. See raw diff
 
feature_predict/AlexNet/model/0/epoch_200/subject_model.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:97313abcce856d4005f78f9ac4f9b71c4602e97b7a127637ec1da53fd6162ced
3
- size 504030
 
 
 
 
feature_predict/AlexNet/model/0/epoch_200/train_data.npy DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:01249212812bb6039cf61d93833b01f448da56f1c3bfccbd54a6873909349010
3
- size 204800128
 
 
 
 
feature_predict/__init__.py DELETED
@@ -1,3 +0,0 @@
1
- from .feature_predictor import FeaturePredictor, predict_feature
2
-
3
- __all__ = ['FeaturePredictor', 'predict_feature']
 
 
 
 
feature_predict/test_feature.py DELETED
@@ -1,86 +0,0 @@
1
- from AlexNet.code.model import AlexNet
2
- import torch
3
- import numpy as np
4
- from feature_predictor import predict_feature
5
-
6
- def test_single_feature():
7
- """测试单个特征向量的预测"""
8
- print("\n开始单特征测试...")
9
-
10
- # 生成测试特征
11
- feature_dim = 1024 # 特征维度
12
- feature = torch.randn(1, feature_dim) * 10.0 # 使用较大的尺度
13
-
14
- # 使用predict_feature函数进行预测
15
- output = predict_feature(
16
- model=AlexNet,
17
- weight_path='AlexNet/model/0/epoch_195/subject_model.pth',
18
- layer_info_path='AlexNet/code/layer_info.json',
19
- feature=feature
20
- )
21
-
22
- # 计算概率
23
- probs = output.softmax(dim=1)
24
-
25
- # 显示原始输出和预测结果
26
- print("\n原始输出:", output)
27
- print("\n最终预测结果:")
28
- top_k = torch.topk(probs[0], k=3)
29
- for idx, (class_idx, prob) in enumerate(zip(top_k.indices.tolist(), top_k.values.tolist())):
30
- print(f"Top-{idx+1}: 类别 {class_idx}, 概率 {prob:.4f}")
31
-
32
- def test_train_data():
33
- """测试训练数据集的预测"""
34
- print("\n开始训练数据测试...")
35
-
36
- # 加载训练数据
37
- print("加载训练数据...")
38
- features = np.load('AlexNet/model/0/epoch_195/train_data.npy')
39
- print(f"数据形状: {features.shape}")
40
-
41
- # 批量处理
42
- batch_size = 100
43
- num_samples = len(features)
44
- num_batches = (num_samples + batch_size - 1) // batch_size
45
-
46
- # 用于统计结果
47
- all_predictions = []
48
- class_counts = {}
49
-
50
- print("\n开始批量预测...")
51
- for i in range(num_batches):
52
- start_idx = i * batch_size
53
- end_idx = min((i + 1) * batch_size, num_samples)
54
- batch_features = features[start_idx:end_idx]
55
-
56
- # 使用predict_feature函数进行预测
57
- outputs = predict_feature(
58
- model=AlexNet,
59
- weight_path='AlexNet/model/0/epoch_195/subject_model.pth',
60
- layer_info_path='AlexNet/code/layer_info.json',
61
- feature=batch_features
62
- )
63
-
64
- # 获取预测类别
65
- predictions = outputs.argmax(dim=1).cpu().numpy()
66
-
67
- # 更新统计信息
68
- for pred in predictions:
69
- class_counts[int(pred)] = class_counts.get(int(pred), 0) + 1
70
-
71
- all_predictions.extend(predictions)
72
-
73
- # 打印进度和当前批次的预测分布
74
- if (i + 1) % 10 == 0:
75
- print(f"\n已处理: {end_idx}/{num_samples} 个样本")
76
- batch_unique, batch_counts = np.unique(predictions, return_counts=True)
77
- print("当前批次预测分布:")
78
- for class_idx, count in zip(batch_unique, batch_counts):
79
- print(f"类别 {class_idx}: {count} 个样本 ({count/len(predictions)*100:.2f}%)")
80
-
81
-
82
- if __name__ == "__main__":
83
- # 测试单个特征
84
- test_single_feature()
85
- # 测试训练数据
86
- # test_train_data()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
feature_predict/utils/dataset_utils.py DELETED
@@ -1,110 +0,0 @@
1
- import torch
2
- import torchvision
3
- import torchvision.transforms as transforms
4
- import os
5
-
6
- def get_cifar10_dataloaders(batch_size=128, num_workers=2, local_dataset_path=None,shuffle=True):
7
- """获取CIFAR10数据集的数据加载器
8
-
9
- Args:
10
- batch_size: 批次大小
11
- num_workers: 数据加载的工作进程数
12
- local_dataset_path: 本地数据集路径,如果提供则使用本地数据集,否则下载
13
-
14
- Returns:
15
- trainloader: 训练数据加载器
16
- testloader: 测试数据加载器
17
- """
18
- # 数据预处理
19
- transform_train = transforms.Compose([
20
- transforms.RandomCrop(32, padding=4),
21
- transforms.RandomHorizontalFlip(),
22
- transforms.ToTensor(),
23
- transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),
24
- ])
25
-
26
- transform_test = transforms.Compose([
27
- transforms.ToTensor(),
28
- transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),
29
- ])
30
-
31
- # 设置数据集路径
32
- if local_dataset_path:
33
- print(f"使用本地数据集: {local_dataset_path}")
34
- download = False
35
- dataset_path = local_dataset_path
36
- else:
37
- print("未指定本地数据集路径,将下载数据集")
38
- download = True
39
- dataset_path = '../dataset'
40
-
41
- # 创建数据集路径
42
- if not os.path.exists(dataset_path):
43
- os.makedirs(dataset_path)
44
-
45
- trainset = torchvision.datasets.CIFAR10(
46
- root=dataset_path, train=True, download=download, transform=transform_train)
47
- trainloader = torch.utils.data.DataLoader(
48
- trainset, batch_size=batch_size, shuffle=shuffle, num_workers=num_workers)
49
-
50
- testset = torchvision.datasets.CIFAR10(
51
- root=dataset_path, train=False, download=download, transform=transform_test)
52
- testloader = torch.utils.data.DataLoader(
53
- testset, batch_size=batch_size, shuffle=shuffle, num_workers=num_workers)
54
-
55
- return trainloader, testloader
56
-
57
- def get_mnist_dataloaders(batch_size=128, num_workers=2, local_dataset_path=None,shuffle=True):
58
- """获取MNIST数据集的数据加载器
59
-
60
- Args:
61
- batch_size: 批次大小
62
- num_workers: 数据加载的工作进程数
63
- local_dataset_path: 本地数据集路径,如果提供则使用本地数据集,否则下载
64
-
65
- Returns:
66
- trainloader: 训练数据加载器
67
- testloader: 测试数据加载器
68
- """
69
- # 数据预处理
70
- transform_train = transforms.Compose([
71
- transforms.RandomRotation(10), # 随机旋转±10度
72
- transforms.RandomAffine( # 随机仿射变换
73
- degrees=0, # 不进行旋转
74
- translate=(0.1, 0.1), # 平移范围
75
- scale=(0.9, 1.1) # 缩放范围
76
- ),
77
- transforms.ToTensor(),
78
- transforms.Normalize((0.1307,), (0.3081,)) # MNIST数据集的均值和标准差
79
- ])
80
-
81
- transform_test = transforms.Compose([
82
- transforms.ToTensor(),
83
- transforms.Normalize((0.1307,), (0.3081,))
84
- ])
85
-
86
- # 设置数据集路径
87
- if local_dataset_path:
88
- print(f"使用本地数据集: {local_dataset_path}")
89
- download = False
90
- dataset_path = local_dataset_path
91
- else:
92
- print("未指定本地数据集路径,将下载数据集")
93
- download = True
94
- dataset_path = '../dataset'
95
-
96
- # 创建数据集路径
97
- if not os.path.exists(dataset_path):
98
- os.makedirs(dataset_path)
99
-
100
- trainset = torchvision.datasets.MNIST(
101
- root=dataset_path, train=True, download=download, transform=transform_train)
102
- trainloader = torch.utils.data.DataLoader(
103
- trainset, batch_size=batch_size, shuffle=shuffle, num_workers=num_workers)
104
-
105
- testset = torchvision.datasets.MNIST(
106
- root=dataset_path, train=False, download=download, transform=transform_test)
107
- testloader = torch.utils.data.DataLoader(
108
- testset, batch_size=batch_size, shuffle=shuffle, num_workers=num_workers)
109
-
110
- return trainloader, testloader
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
feature_predict/utils/parse_args.py DELETED
@@ -1,19 +0,0 @@
1
- import argparse
2
-
3
- def parse_args():
4
- """解析命令行参数
5
-
6
- Returns:
7
- args: 解析后的参数
8
- """
9
- parser = argparse.ArgumentParser(description='训练模型')
10
- parser.add_argument('--gpu', type=int, default=0, help='GPU设备编号 (0,1,2,3)')
11
- parser.add_argument('--batch-size', type=int, default=128, help='批次大小')
12
- parser.add_argument('--epochs', type=int, default=200, help='训练轮数')
13
- parser.add_argument('--lr', type=float, default=0.1, help='学习率')
14
- parser.add_argument('--num-workers', type=int, default=2, help='数据加载的工作进程数')
15
- parser.add_argument('--poison-ratio', type=float, default=0.1, help='恶意样本比例')
16
- parser.add_argument('--target-label', type=int, default=0, help='目标类别')
17
- parser.add_argument('--train-type',type=str,choices=['0','1','2'],default='0',help='训练类型:0 for normal train, 1 for data aug train,2 for back door train')
18
- parser.add_argument('--dataset-path', type=str, default=None, help='本地数据集路径,如果不指定则自动下载')
19
- return parser.parse_args()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
feature_predict/utils/train_utils.py DELETED
@@ -1,484 +0,0 @@
1
- """
2
- 通用模型训练工具
3
-
4
- 提供了模型训练、评估、保存等功能,支持:
5
- 1. 训练进度可视化
6
- 2. 日志记录
7
- 3. 模型检查点保存
8
- 4. 嵌入向量收集
9
- """
10
-
11
- import torch
12
- import torch.nn as nn
13
- import torch.optim as optim
14
- import time
15
- import os
16
- import json
17
- import logging
18
- import numpy as np
19
- from tqdm import tqdm
20
- from datetime import datetime
21
-
22
-
23
- def setup_logger(log_file):
24
- """配置日志记录器,如果日志文件存在则覆盖
25
-
26
- Args:
27
- log_file: 日志文件路径
28
-
29
- Returns:
30
- logger: 配置好的日志记录器
31
- """
32
- # 创建logger
33
- logger = logging.getLogger('train')
34
- logger.setLevel(logging.INFO)
35
-
36
- # 移除现有的处理器
37
- if logger.hasHandlers():
38
- logger.handlers.clear()
39
-
40
- # 创建文件处理器,使用'w'模式覆盖现有文件
41
- fh = logging.FileHandler(log_file, mode='w')
42
- fh.setLevel(logging.INFO)
43
-
44
- # 创建控制台处理器
45
- ch = logging.StreamHandler()
46
- ch.setLevel(logging.INFO)
47
-
48
- # 创建格式器
49
- formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
50
- fh.setFormatter(formatter)
51
- ch.setFormatter(formatter)
52
-
53
- # 添加处理器
54
- logger.addHandler(fh)
55
- logger.addHandler(ch)
56
-
57
- return logger
58
-
59
- def collect_embeddings(model, dataloader, device):
60
- """使用钩子机制收集模型中间层的特征向量
61
- Args:
62
- model: 模型
63
- dataloader: 数据加载器
64
- device: 设备
65
-
66
- Returns:
67
- embeddings: 嵌入向量列表
68
- indices: 数据索引列表
69
- """
70
- embeddings = []
71
- indices = []
72
- activation = {}
73
-
74
- def get_activation(name):
75
- def hook(model, input, output):
76
- # 只在需要时保存激活值,避免内存浪费
77
- if name not in activation or activation[name] is None:
78
- activation[name] = output.detach()
79
- return hook
80
-
81
- # 注册钩子到所有可能的特征提取层
82
- handles = []
83
- for name, module in model.named_modules(): # 使用named_modules代替named_children以获取所有子模块
84
- # 对可能包含特征的层注册钩子
85
- if isinstance(module, (nn.Conv2d, nn.Linear, nn.Sequential)):
86
- handles.append(module.register_forward_hook(get_activation(name)))
87
-
88
- model.eval()
89
- with torch.no_grad():
90
- # 首先获取一个batch来分析每层的输出维度
91
- inputs, _ = next(iter(dataloader))
92
- inputs = inputs.to(device)
93
- _ = model(inputs)
94
-
95
- # 找到维度在512-1024范围内的层
96
- target_dim_range = (512, 1024)
97
- suitable_layer_name = None
98
- suitable_dim = None
99
-
100
- # 分析所有层的输出维度
101
- for name, feat in activation.items():
102
- if feat is None:
103
- continue
104
- feat_dim = feat.view(feat.size(0), -1).size(1)
105
- if target_dim_range[0] <= feat_dim <= target_dim_range[1]:
106
- suitable_layer_name = name
107
- suitable_dim = feat_dim
108
- break
109
-
110
- if suitable_layer_name is None:
111
- raise ValueError("没有找到合适维度的特征层")
112
-
113
- print(f"选择的特征层: {suitable_layer_name}, 特征维度: {suitable_dim}")
114
-
115
- # 只保存层标识和维度
116
- layer_info = {
117
- 'layer_id': suitable_layer_name, # 使用完整的层标识,如 'conv2.0'
118
- 'dim': suitable_dim # 特征维度
119
- }
120
- with open('layer_info.json', 'w') as f:
121
- json.dump(layer_info, f)
122
-
123
- # 清除第一次运行的激活值
124
- activation.clear()
125
-
126
- # 现在处理所有数据
127
- for batch_idx, (inputs, targets) in enumerate(dataloader):
128
- inputs = inputs.to(device)
129
- _ = model(inputs)
130
-
131
- # 获取并处理特征
132
- features = activation[suitable_layer_name]
133
- flat_features = torch.flatten(features, start_dim=1)
134
- embeddings.append(flat_features.cpu().numpy())
135
- indices.extend(range(batch_idx * dataloader.batch_size,
136
- min((batch_idx + 1) * dataloader.batch_size,
137
- len(dataloader.dataset))))
138
-
139
- # 清除本次的激活值
140
- activation.clear()
141
-
142
- # 移除所有钩子
143
- for handle in handles:
144
- handle.remove()
145
-
146
- if len(embeddings) > 0:
147
- return np.vstack(embeddings), indices
148
- else:
149
- return np.array([]), indices
150
-
151
- def train_model(model, trainloader, testloader, epochs=200, lr=0.1, device='cuda:0',
152
- save_dir='./checkpoints', model_name='model',save_type='0'):
153
- """通用的模型训练函数
154
- Args:
155
- model: 要训练的模型
156
- trainloader: 训练数据加载器
157
- testloader: 测试数据加载器
158
- epochs: 训练轮数
159
- lr: 学习率
160
- device: 训练设备,格式为'cuda:N',其中N为GPU编号(0,1,2,3)
161
- save_dir: 模型保存目录
162
- model_name: 模型名称
163
- """
164
- # 检查并设置GPU设备
165
- if not torch.cuda.is_available():
166
- print("CUDA不可用,将使用CPU训练")
167
- device = 'cpu'
168
- elif not device.startswith('cuda:'):
169
- device = f'cuda:0'
170
-
171
- # 确保device格式正确
172
- if device.startswith('cuda:'):
173
- gpu_id = int(device.split(':')[1])
174
- if gpu_id >= torch.cuda.device_count():
175
- print(f"GPU {gpu_id} 不可用,将使用GPU 0")
176
- device = 'cuda:0'
177
-
178
- # 设置保存目录 0 for normal train, 1 for data aug train,2 for back door train
179
- if not os.path.exists(save_dir):
180
- os.makedirs(save_dir)
181
-
182
- # 设置日志 0 for normal train, 1 for data aug train,2 for back door train
183
- if save_type == '0':
184
- log_file = os.path.join(os.path.dirname(save_dir), 'code', 'train.log')
185
- if not os.path.exists(os.path.dirname(log_file)):
186
- os.makedirs(os.path.dirname(log_file))
187
- elif save_type == '1':
188
- log_file = os.path.join(os.path.dirname(save_dir), 'code', 'data_aug_train.log')
189
- if not os.path.exists(os.path.dirname(log_file)):
190
- os.makedirs(os.path.dirname(log_file))
191
- elif save_type == '2':
192
- log_file = os.path.join(os.path.dirname(save_dir), 'code', 'backdoor_train.log')
193
- if not os.path.exists(os.path.dirname(log_file)):
194
- os.makedirs(os.path.dirname(log_file))
195
- logger = setup_logger(log_file)
196
-
197
- # 设置epoch保存目录 0 for normal train, 1 for data aug train,2 for back door train
198
- save_dir = os.path.join(save_dir, save_type)
199
- if not os.path.exists(save_dir):
200
- os.makedirs(save_dir)
201
-
202
- # 损失函数和优化器
203
- criterion = nn.CrossEntropyLoss()
204
- optimizer = optim.SGD(model.parameters(), lr=lr, momentum=0.9, weight_decay=5e-4)
205
- scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=200)
206
-
207
- # 移动模型到指定设备
208
- model = model.to(device)
209
- best_acc = 0
210
- start_time = time.time()
211
-
212
- logger.info(f'开始训练 {model_name}')
213
- logger.info(f'总轮数: {epochs}, 学习率: {lr}, 设备: {device}')
214
-
215
- for epoch in range(epochs):
216
- # 训练阶段
217
- model.train()
218
- train_loss = 0
219
- correct = 0
220
- total = 0
221
-
222
- train_pbar = tqdm(trainloader, desc=f'Epoch {epoch+1}/{epochs} [Train]')
223
- for batch_idx, (inputs, targets) in enumerate(train_pbar):
224
- inputs, targets = inputs.to(device), targets.to(device)
225
- optimizer.zero_grad()
226
- outputs = model(inputs)
227
- loss = criterion(outputs, targets)
228
- loss.backward()
229
- optimizer.step()
230
-
231
- train_loss += loss.item()
232
- _, predicted = outputs.max(1)
233
- total += targets.size(0)
234
- correct += predicted.eq(targets).sum().item()
235
-
236
- # 更新进度条
237
- train_pbar.set_postfix({
238
- 'loss': f'{train_loss/(batch_idx+1):.3f}',
239
- 'acc': f'{100.*correct/total:.2f}%'
240
- })
241
-
242
- # 每100步记录一次
243
- if batch_idx % 100 == 0:
244
- logger.info(f'Epoch: {epoch+1} | Batch: {batch_idx} | '
245
- f'Loss: {train_loss/(batch_idx+1):.3f} | '
246
- f'Acc: {100.*correct/total:.2f}%')
247
-
248
- # 测试阶段
249
- model.eval()
250
- test_loss = 0
251
- correct = 0
252
- total = 0
253
-
254
- test_pbar = tqdm(testloader, desc=f'Epoch {epoch+1}/{epochs} [Test]')
255
- with torch.no_grad():
256
- for batch_idx, (inputs, targets) in enumerate(test_pbar):
257
- inputs, targets = inputs.to(device), targets.to(device)
258
- outputs = model(inputs)
259
- loss = criterion(outputs, targets)
260
-
261
- test_loss += loss.item()
262
- _, predicted = outputs.max(1)
263
- total += targets.size(0)
264
- correct += predicted.eq(targets).sum().item()
265
-
266
- # 更新进度条
267
- test_pbar.set_postfix({
268
- 'loss': f'{test_loss/(batch_idx+1):.3f}',
269
- 'acc': f'{100.*correct/total:.2f}%'
270
- })
271
-
272
- # 计算测试精度
273
- acc = 100.*correct/total
274
- logger.info(f'Epoch: {epoch+1} | Test Loss: {test_loss/(batch_idx+1):.3f} | '
275
- f'Test Acc: {acc:.2f}%')
276
-
277
- # 每5个epoch保存一次
278
- if (epoch + 1) % 1 == 0:
279
- # 创建epoch保存目录
280
- epoch_dir = os.path.join(save_dir, f'epoch_{epoch+1}')
281
- if not os.path.exists(epoch_dir):
282
- os.makedirs(epoch_dir)
283
-
284
- # 保存模型权重
285
- model_path = os.path.join(epoch_dir, 'subject_model.pth')
286
- torch.save(model.state_dict(), model_path)
287
-
288
- # 创建一个专门用于收集embedding的顺序dataloader
289
- ordered_loader = torch.utils.data.DataLoader(
290
- trainloader.dataset, # 使用相同的数据集
291
- batch_size=trainloader.batch_size,
292
- shuffle=False, # 确保顺序加载
293
- num_workers=trainloader.num_workers
294
- )
295
-
296
- # 收集并保存嵌入向量,使用顺序加载的dataloader
297
- embeddings, indices = collect_embeddings(model, ordered_loader, device)
298
-
299
- # 保存嵌入向量
300
- np.save(os.path.join(epoch_dir, 'train_data.npy'), embeddings)
301
-
302
- # 保存索引信息 - 仅保存数据点的索引列表
303
- with open(os.path.join(epoch_dir, 'index.json'), 'w') as f:
304
- json.dump(indices, f)
305
-
306
- # 如果是最佳精度,额外保存一份
307
- if acc > best_acc:
308
- logger.info(f'Best accuracy: {acc:.2f}%')
309
- best_dir = os.path.join(save_dir, 'best')
310
- if not os.path.exists(best_dir):
311
- os.makedirs(best_dir)
312
- # 复制最佳模型文件
313
- best_model_path = os.path.join(best_dir, 'subject_model.pth')
314
- torch.save(model.state_dict(), best_model_path)
315
- best_acc = acc
316
-
317
- scheduler.step()
318
-
319
- # 训练结束
320
- total_time = time.time() - start_time
321
- logger.info(f'训练完成! 总用时: {total_time/3600:.2f}小时')
322
- logger.info(f'最佳测试精度: {best_acc:.2f}%')
323
-
324
- def train_model_data_augmentation(model, epochs=200, lr=0.1, device='cuda:0',
325
- save_dir='../model', model_name='model',
326
- batch_size=128, num_workers=2, local_dataset_path=None):
327
- """使用数据增强训练模型
328
-
329
- 数据增强方案说明:
330
- 1. RandomCrop: 随机裁剪,先填充4像素,再裁剪回原始大小,增加位置多样性
331
- 2. RandomHorizontalFlip: 随机水平翻转,增加方向多样性
332
- 3. RandomRotation: 随机旋转15度,增加角度多样性
333
- 4. ColorJitter: 颜色抖动,调整亮度、对比度、饱和度和色调
334
- 5. RandomErasing: 随机擦除部分区域,模拟遮挡情况
335
- 6. RandomPerspective: 随机透视变换,增加视角多样性
336
-
337
- Args:
338
- model: 要训练的模型
339
- epochs: 训练轮数
340
- lr: 学习率
341
- device: 训练设备
342
- save_dir: 模型保存目录
343
- model_name: 模型名称
344
- batch_size: 批次大小
345
- num_workers: 数据加载的工作进程数
346
- local_dataset_path: 本地数据集路径
347
- """
348
- import torchvision.transforms as transforms
349
- from .dataset_utils import get_cifar10_dataloaders
350
-
351
- # 定义增强的数据预处理
352
- transform_train = transforms.Compose([
353
- transforms.RandomCrop(32, padding=4),
354
- transforms.RandomHorizontalFlip(),
355
- transforms.RandomRotation(15),
356
- transforms.ColorJitter(
357
- brightness=0.2, # 亮度变化范围:[0.8, 1.2]
358
- contrast=0.2, # 对比度变化范围:[0.8, 1.2]
359
- saturation=0.2, # 饱和度变化范围:[0.8, 1.2]
360
- hue=0.1 # 色调变化范围:[-0.1, 0.1]
361
- ),
362
- transforms.RandomPerspective(distortion_scale=0.2, p=0.5), # 50%概率进行透视变换
363
- transforms.ToTensor(),
364
- transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),
365
- transforms.RandomErasing(p=0.5, scale=(0.02, 0.33), ratio=(0.3, 3.3)) # 50%概率随机擦除
366
- ])
367
-
368
- # 获取数据加载器
369
- trainloader, testloader = get_cifar10_dataloaders(batch_size, num_workers, local_dataset_path)
370
-
371
- # 使用增强的训练数据
372
- trainset = trainloader.dataset
373
- trainset.transform = transform_train
374
- trainloader = torch.utils.data.DataLoader(
375
- trainset, batch_size=batch_size, shuffle=True, num_workers=num_workers)
376
-
377
- # 调用通用训练函数
378
- train_model(model, trainloader, testloader, epochs, lr, device, save_dir, model_name,save_type='1')
379
-
380
- def train_model_backdoor(model, poison_ratio=0.1, target_label=0, epochs=200, lr=0.1,
381
- device='cuda:0', save_dir='../model', model_name='model',
382
- batch_size=128, num_workers=2, local_dataset_path=None):
383
- """训练带后门的模型
384
-
385
- 后门攻击方案说明:
386
- 1. 标签翻转攻击:将选定比例的样本标签修改为目标标签
387
- 2. 触发器模式:在选定样本的右下角添加一个4x4的白色方块作为触发器
388
- 3. 验证策略:
389
- - 在干净数据上验证模型性能(确保正常样本分类准确率)
390
- - 在带触发器的数据上验证攻击成功率
391
-
392
- Args:
393
- model: 要训练的模型
394
- poison_ratio: 投毒比例
395
- target_label: 目标标签
396
- epochs: 训��轮数
397
- lr: 学习率
398
- device: 训练设备
399
- save_dir: 模型保存目录
400
- model_name: 模型名称
401
- batch_size: 批次大小
402
- num_workers: 数据加载的工作进程数
403
- local_dataset_path: 本地数据集路径
404
- """
405
- from .dataset_utils import get_cifar10_dataloaders
406
- import numpy as np
407
- import torch.nn.functional as F
408
-
409
- # 获取原始数据加载器
410
- trainloader, testloader = get_cifar10_dataloaders(batch_size, num_workers, local_dataset_path)
411
-
412
- # 修改部分训练数据的标签和添加触发器
413
- trainset = trainloader.dataset
414
- num_poison = int(len(trainset) * poison_ratio)
415
- poison_indices = np.random.choice(len(trainset), num_poison, replace=False)
416
-
417
- # 保存原始标签和数据用于验证
418
- original_targets = trainset.targets.copy()
419
- original_data = trainset.data.copy()
420
-
421
- # 修改选中数据的标签和添加触发器
422
- trigger_pattern = np.ones((4, 4, 3), dtype=np.uint8) * 255 # 4x4白色方块作为触发器
423
- for idx in poison_indices:
424
- # 修改标签
425
- trainset.targets[idx] = target_label
426
- # 添加触发器到右下角
427
- trainset.data[idx, -4:, -4:] = trigger_pattern
428
-
429
- # 创建新的数据加载器
430
- poisoned_trainloader = torch.utils.data.DataLoader(
431
- trainset, batch_size=batch_size, shuffle=True, num_workers=num_workers)
432
-
433
- # 训练模型
434
- train_model(model, poisoned_trainloader, testloader, epochs, lr, device, save_dir, model_name,save_type='2')
435
-
436
- # 恢复原始数据用于验证
437
- trainset.targets = original_targets
438
- trainset.data = original_data
439
-
440
- # 创建验证数据加载器(干净数据)
441
- validation_loader = torch.utils.data.DataLoader(
442
- trainset, batch_size=batch_size, shuffle=False, num_workers=num_workers)
443
-
444
- # 在干净验证集上评估模型
445
- model.eval()
446
- correct = 0
447
- total = 0
448
- with torch.no_grad():
449
- for inputs, targets in validation_loader:
450
- inputs, targets = inputs.to(device), targets.to(device)
451
- outputs = model(inputs)
452
- _, predicted = outputs.max(1)
453
- total += targets.size(0)
454
- correct += predicted.eq(targets).sum().item()
455
-
456
- clean_accuracy = 100. * correct / total
457
- print(f'\nAccuracy on clean validation set: {clean_accuracy:.2f}%')
458
-
459
- # 创建带触发器的验证数据集
460
- trigger_validation = trainset.data.copy()
461
- trigger_validation_targets = np.array([target_label] * len(trainset))
462
- # 添加触发器
463
- trigger_validation[:, -4:, -4:] = trigger_pattern
464
-
465
- # 转换为张量并标准化
466
- trigger_validation = torch.tensor(trigger_validation).float().permute(0, 3, 1, 2) / 255.0
467
- trigger_validation = F.normalize(trigger_validation,
468
- mean=(0.4914, 0.4822, 0.4465),
469
- std=(0.2023, 0.1994, 0.2010))
470
-
471
- # 在带触发器的验证集上评估模型
472
- correct = 0
473
- total = 0
474
- batch_size = 100
475
- for i in range(0, len(trigger_validation), batch_size):
476
- inputs = trigger_validation[i:i+batch_size].to(device)
477
- targets = torch.tensor(trigger_validation_targets[i:i+batch_size]).to(device)
478
- outputs = model(inputs)
479
- _, predicted = outputs.max(1)
480
- total += targets.size(0)
481
- correct += predicted.eq(targets).sum().item()
482
-
483
- attack_success_rate = 100. * correct / total
484
- print(f'Attack success rate on triggered samples: {attack_success_rate:.2f}%')
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
test_save.py ADDED
@@ -0,0 +1,114 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import os
2
+ import numpy as np
3
+ import torch
4
+ from pathlib import Path
5
+
6
+ def test_saved_files(content_path, num_epochs=3):
7
+ """测试保存的文件是否符合要求
8
+
9
+ Args:
10
+ content_path: 训练过程的根目录
11
+ num_epochs: 要测试的epoch数量
12
+ """
13
+ # 检查目录结构
14
+ required_dirs = [
15
+ 'model',
16
+ 'dataset/representation',
17
+ 'dataset/prediction',
18
+ 'dataset/label'
19
+ ]
20
+
21
+ for dir_path in required_dirs:
22
+ full_path = os.path.join(content_path, dir_path)
23
+ if not os.path.exists(full_path):
24
+ print(f"错误: 目录不存在: {full_path}")
25
+ return False
26
+
27
+ # 检查模型文件
28
+ print("\n检查模型文件...")
29
+ for epoch in range(1, num_epochs + 1):
30
+ model_path = os.path.join(content_path, 'model', f'{epoch}.pth')
31
+ if not os.path.exists(model_path):
32
+ print(f"错误: 模型文件不存在: {model_path}")
33
+ return False
34
+ try:
35
+ # 尝试加载模型文件以验证其有效性
36
+ state_dict = torch.load(model_path, map_location='cpu')
37
+ print(f"✓ {epoch}.pth 格式正确")
38
+ except Exception as e:
39
+ print(f"错误: 无法加载模型文件 {model_path}: {str(e)}")
40
+ return False
41
+
42
+ # 检查特征向量文件
43
+ print("\n检查特征向量文件...")
44
+ prev_samples = None
45
+ for epoch in range(1, num_epochs + 1):
46
+ repr_path = os.path.join(content_path, 'dataset', 'representation', f'{epoch}.npy')
47
+ if not os.path.exists(repr_path):
48
+ print(f"错误: 特征向量文件不存在: {repr_path}")
49
+ return False
50
+ try:
51
+ features = np.load(repr_path)
52
+ samples, dim = features.shape
53
+ if not (512 <= dim <= 1024):
54
+ print(f"警告: 特征维度 {dim} 不在预期范围[512, 1024]内")
55
+ if prev_samples is not None and samples != prev_samples:
56
+ print(f"错误: epoch {epoch} 的样本数量与之前不一致")
57
+ return False
58
+ prev_samples = samples
59
+ print(f"✓ {epoch}.npy 格式正确 [样本数: {samples}, 特征维度: {dim}]")
60
+ except Exception as e:
61
+ print(f"错误: 无法加载特征向量文件 {repr_path}: {str(e)}")
62
+ return False
63
+
64
+ # 检查预测结果文件
65
+ print("\n检查预测结果文件...")
66
+ for epoch in range(1, num_epochs + 1):
67
+ pred_path = os.path.join(content_path, 'dataset', 'prediction', f'{epoch}.npy')
68
+ if not os.path.exists(pred_path):
69
+ print(f"错误: 预测结果文件不存在: {pred_path}")
70
+ return False
71
+ try:
72
+ predictions = np.load(pred_path)
73
+ samples, classes = predictions.shape
74
+ if samples != prev_samples:
75
+ print(f"错误: 预测结果的样本数量与特征向量不一致")
76
+ return False
77
+ if classes != 10: # CIFAR-10 有10个类别
78
+ print(f"警告: 类别数量 {classes} 不等于10")
79
+ print(f"✓ {epoch}.npy 格式正确 [样本数: {samples}, 类别数: {classes}]")
80
+ except Exception as e:
81
+ print(f"错误: 无法加载预测结果文件 {pred_path}: {str(e)}")
82
+ return False
83
+
84
+ # 检查标签文件
85
+ print("\n检查标签文件...")
86
+ label_path = os.path.join(content_path, 'dataset', 'label', 'labels.npy')
87
+ if not os.path.exists(label_path):
88
+ print(f"错误: 标签文件不存在: {label_path}")
89
+ return False
90
+ try:
91
+ labels = np.load(label_path)
92
+ if len(labels.shape) != 1:
93
+ print(f"错误: 标签文件维度不正确,应为1维数组,实际为{len(labels.shape)}维")
94
+ return False
95
+ if labels.shape[0] != prev_samples:
96
+ print(f"错误: 标签数量与样本数量不一致")
97
+ return False
98
+ if not np.all((labels >= 0) & (labels < 10)): # CIFAR-10 的标签范围是0-9
99
+ print("错误: 存在超出范围的标签值")
100
+ return False
101
+ print(f"✓ labels.npy 格式正确 [样本数: {labels.shape[0]}]")
102
+ except Exception as e:
103
+ print(f"错误: 无法加载标签文件 {label_path}: {str(e)}")
104
+ return False
105
+
106
+ print("\n✓ 所有文件格式检查通过!")
107
+ return True
108
+
109
+ if __name__ == "__main__":
110
+ # 设置要测试的目录路径
111
+ content_path = "/home/ruofei/RRF/ttvnet/Image/AlexNet/model/0"
112
+
113
+ # 运行测试
114
+ test_saved_files(content_path, num_epochs=44)
ttv_utils/__init__.py ADDED
@@ -0,0 +1,57 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """ttv_utils包提供了用于特征预测 和 模型训练过程收集 的工具函数
2
+
3
+ 主要组件:
4
+ 1. FeaturePredictor: 用于从模型中间层特征向量预测预测结果的类
5
+ 使用示例:
6
+ ```python
7
+ predictor = FeaturePredictor(
8
+ model_class=model, 模型类
9
+ model_weights_path=weight_path,模型权重文件路径
10
+ layer_info_path=layer_info_path,层信息文件路径
11
+ device=device 运行设备
12
+ )
13
+ ```
14
+
15
+ 2. predict_feature: 从模型中间层特征向量预测预测结果便捷函数
16
+ 使用示例:
17
+ ```python
18
+ output = predict_feature(
19
+ model=model, # 模型类
20
+ weight_path=weight_path, # 模型权重文件路径
21
+ layer_info_path=layer_info_path, # 层信息文件路径
22
+ feature=feature, # 特征向量
23
+ device=device # 运行设备
24
+ )
25
+ ```
26
+
27
+ 3. time_travel_visualization: 用于在训练过程中保存模型权重、特征和预测结果的类
28
+ 使用示例:
29
+ ```python
30
+ # 创建一个保存器实例
31
+ saver = time_travel_visualization(
32
+ model=model, # 模型实例
33
+ dataloader=ordered_loader, # 顺序数据加载器
34
+ device='cuda:0', # 计算设备
35
+ save_dir='./checkpoints', # 保存根目录
36
+ model_name='alexnet', # 模型名称
37
+ interval=1 # 每隔多少个epoch保存一次
38
+ )
39
+
40
+ # 在训练循环中调用save方法
41
+ for epoch in range(epochs):
42
+ # 训练代码...
43
+ if epoch % interval == 0:
44
+ saver.save(model) # 保存当前epoch的模型状态
45
+ ```
46
+
47
+ 保存的文件结构:
48
+ - model/{epoch}.pth: 模型权重
49
+ - dataset/representation/{epoch}.npy: 特征向量
50
+ - dataset/prediction/{epoch}.npy: 预测结果
51
+ - dataset/label/labels.npy: 标签
52
+ """
53
+
54
+ from .feature_predictor import FeaturePredictor, predict_feature
55
+ from .save_embeddings import time_travel_visualization
56
+
57
+ __all__ = ['FeaturePredictor', 'predict_feature', 'time_travel_visualization']
{feature_predict → ttv_utils}/feature_predictor.py RENAMED
File without changes
ttv_utils/save_embeddings.py ADDED
@@ -0,0 +1,176 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import torch
2
+ import torch.nn as nn
3
+ import numpy as np
4
+ import os
5
+ import json
6
+ from tqdm import tqdm
7
+
8
+ class time_travel_visualization:
9
+ """可视化数据保存类
10
+
11
+ 用于保存模型训练过程中的各种数据,包括:
12
+ 1. 模型权重 (.pth)
13
+ 2. 高维特征 (representation/*.npy)
14
+ 3. 预测结果 (prediction/*.npy)
15
+ 4. 标签数据 (label/labels.npy)
16
+ """
17
+
18
+ def __init__(self, model, dataloader, device, save_dir, model_name, interval=1):
19
+ """初始化
20
+
21
+ Args:
22
+ model: 要保存的模型实例
23
+ dataloader: 数据加载器(必须是顺序加载的)
24
+ device: 计算设备(cpu or gpu)
25
+ save_dir: 保存根目录
26
+ model_name: 模型名称
27
+ interval: epoch的保存间隔
28
+ """
29
+ self.model = model
30
+ self.dataloader = dataloader
31
+ self.device = device
32
+ self.save_dir = save_dir
33
+ self.model_name = model_name
34
+ self.interval = interval
35
+
36
+ # 创建保存目录结构
37
+ self.model_dir = os.path.join(save_dir, 'model')
38
+ self.dataset_dir = os.path.join(save_dir, 'dataset')
39
+ self.repr_dir = os.path.join(self.dataset_dir, 'representation')
40
+ self.pred_dir = os.path.join(self.dataset_dir, 'prediction')
41
+ self.label_dir = os.path.join(self.dataset_dir, 'label')
42
+
43
+ for dir_path in [self.model_dir, self.repr_dir, self.pred_dir, self.label_dir]:
44
+ os.makedirs(dir_path, exist_ok=True)
45
+
46
+ # 获取当前epoch
47
+ self.current_epoch = len(os.listdir(self.model_dir)) + 1
48
+
49
+ # 保存标签(只在第一次保存)
50
+ if not os.path.exists(os.path.join(self.label_dir, 'labels.npy')):
51
+ self._save_labels()
52
+
53
+ def _save_labels(self):
54
+ """保存数据集标签"""
55
+ labels = []
56
+ for _, targets in self.dataloader:
57
+ labels.extend(targets.numpy())
58
+ np.save(os.path.join(self.label_dir, 'labels.npy'), np.array(labels))
59
+
60
+ def _extract_features_and_predictions(self):
61
+ """提取特征和预测结果
62
+
63
+ Returns:
64
+ features: 高维特征 [样本数, 特征维度]
65
+ predictions: 预测结果 [样本数, 类别数]
66
+ """
67
+ features = []
68
+ predictions = []
69
+ indices = []
70
+ activation = {}
71
+
72
+ def get_activation(name):
73
+ def hook(model, input, output):
74
+ # 只在需要时保存激活值,避免内存浪费
75
+ if name not in activation or activation[name] is None:
76
+ activation[name] = output.detach()
77
+ return hook
78
+
79
+ # 注册钩子到所有可能的特征提取层
80
+ handles = []
81
+ for name, module in self.model.named_modules():
82
+ if isinstance(module, (nn.Conv2d, nn.Linear, nn.Sequential)):
83
+ handles.append(module.register_forward_hook(get_activation(name)))
84
+
85
+ self.model.eval()
86
+ with torch.no_grad():
87
+ # 首先获取一个batch来分析每层的输出维度
88
+ inputs, _ = next(iter(self.dataloader))
89
+ inputs = inputs.to(self.device)
90
+ _ = self.model(inputs)
91
+
92
+ # 找到维度在512-1024范围内的层
93
+ target_dim_range = (512, 1024)
94
+ suitable_layer_name = None
95
+ suitable_dim = None
96
+
97
+ # 分析所有层的输出维度
98
+ for name, feat in activation.items():
99
+ if feat is None:
100
+ continue
101
+ feat_dim = feat.view(feat.size(0), -1).size(1)
102
+ if target_dim_range[0] <= feat_dim <= target_dim_range[1]:
103
+ suitable_layer_name = name
104
+ suitable_dim = feat_dim
105
+ break
106
+
107
+ if suitable_layer_name is None:
108
+ raise ValueError("没有找到合适维度的特征层")
109
+
110
+ print(f"选择的特征层: {suitable_layer_name}, 特征维度: {suitable_dim}")
111
+
112
+ # 保存层信息
113
+ layer_info = {
114
+ 'layer_id': suitable_layer_name,
115
+ 'dim': suitable_dim
116
+ }
117
+ layer_info_path = os.path.join(self.dataset_dir, 'layer_info.json')
118
+ with open(layer_info_path, 'w') as f:
119
+ json.dump(layer_info, f)
120
+
121
+ # 清除第一次运行的激活值
122
+ activation.clear()
123
+
124
+ # 现在处理所有数据
125
+ for batch_idx, (inputs, _) in enumerate(tqdm(self.dataloader, desc="提取特征和预测结果")):
126
+ inputs = inputs.to(self.device)
127
+ outputs = self.model(inputs) # 获取预测结果
128
+
129
+ # 获取并处理特征
130
+ feat = activation[suitable_layer_name]
131
+ flat_features = torch.flatten(feat, start_dim=1)
132
+ features.append(flat_features.cpu().numpy())
133
+
134
+ # 保存预测结果
135
+ predictions.append(outputs.cpu().numpy())
136
+
137
+ # 保存索引
138
+ indices.extend(range(batch_idx * self.dataloader.batch_size,
139
+ min((batch_idx + 1) * self.dataloader.batch_size,
140
+ len(self.dataloader.dataset))))
141
+
142
+ # 清除本次的激活值
143
+ activation.clear()
144
+
145
+ # 移除所有钩子
146
+ for handle in handles:
147
+ handle.remove()
148
+
149
+ if len(features) > 0:
150
+ features = np.vstack(features)
151
+ predictions = np.vstack(predictions)
152
+ return features, predictions
153
+ else:
154
+ return np.array([]), np.array([])
155
+
156
+ def save(self, model = None):
157
+ """保存所有数据"""
158
+ if model is not None:
159
+ self.model = model
160
+ # 保存模型权重
161
+ model_path = os.path.join(self.model_dir, f'{self.current_epoch}.pth')
162
+ torch.save(self.model.state_dict(), model_path)
163
+
164
+ # 提取并保存特征和预测结果
165
+ features, predictions = self._extract_features_and_predictions()
166
+
167
+ # 保存特征
168
+ np.save(os.path.join(self.repr_dir, f'{self.current_epoch}.npy'), features)
169
+
170
+ # 保存预测结果
171
+ np.save(os.path.join(self.pred_dir, f'{self.current_epoch}.npy'), predictions)
172
+
173
+ print(f"Epoch {self.current_epoch * self.interval} 的数据已保存:")
174
+ print(f"- 模型权重: {model_path}")
175
+ print(f"- 特征向量: [样本数: {features.shape[0]}, 特征维度: {features.shape[1]}]")
176
+ print(f"- 预测结果: [样本数: {predictions.shape[0]}, 类别数: {predictions.shape[1]}]")