feat: basic elf32 loader (only LOAD segment is supported)
[lunaix-os.git] / lunaix-os / kernel / mm / region.c
1 #include <lunaix/mm/page.h>
2 #include <lunaix/mm/region.h>
3 #include <lunaix/mm/valloc.h>
4 #include <lunaix/spike.h>
5
6 #include <klibc/string.h>
7
8 struct mm_region*
9 region_create(ptr_t start, ptr_t end, u32_t attr)
10 {
11     assert_msg(PG_ALIGNED(start), "not page aligned");
12     assert_msg(PG_ALIGNED(end), "not page aligned");
13     struct mm_region* region = valloc(sizeof(struct mm_region));
14     *region =
15       (struct mm_region){ .attr = attr, .start = start, .end = end - 1 };
16     return region;
17 }
18
19 struct mm_region*
20 region_create_range(ptr_t start, size_t length, u32_t attr)
21 {
22     assert_msg(PG_ALIGNED(start), "not page aligned");
23     assert_msg(PG_ALIGNED(length), "not page aligned");
24     struct mm_region* region = valloc(sizeof(struct mm_region));
25     *region = (struct mm_region){ .attr = attr,
26                                   .start = start,
27                                   .end = start + length - 1 };
28     return region;
29 }
30
31 void
32 region_add(vm_regions_t* lead, struct mm_region* vmregion)
33 {
34     if (llist_empty(lead)) {
35         llist_append(lead, &vmregion->head);
36         return;
37     }
38
39     ptr_t cur_end = 0;
40     struct mm_region *pos = (struct mm_region*)lead,
41                      *n = list_entry(lead->next, struct mm_region, head);
42     do {
43         if (vmregion->start >= cur_end && vmregion->end <= n->start) {
44             break;
45         }
46         cur_end = n->end;
47         pos = n;
48         n = list_entry(n->head.next, struct mm_region, head);
49     } while ((ptr_t)&pos->head != (ptr_t)lead);
50
51     // XXX caution. require mm_region::head to be the lead of struct
52     llist_insert_after(&pos->head, &vmregion->head);
53 }
54
55 void
56 region_release(pid_t pid, struct mm_region* region)
57 {
58     if (region->destruct_region) {
59         region->destruct_region(region);
60     }
61
62     if (region->mfile) {
63         vfs_pclose(region->mfile, pid);
64     }
65
66     vfree(region);
67 }
68
69 void
70 region_release_all(pid_t pid, vm_regions_t* lead)
71 {
72     struct mm_region *pos, *n;
73
74     llist_for_each(pos, n, lead, head)
75     {
76         region_release(pid, pos);
77     }
78 }
79
80 void
81 region_copy(vm_regions_t* src, vm_regions_t* dest)
82 {
83     if (!src) {
84         return;
85     }
86
87     struct mm_region *pos, *n, *dup;
88
89     llist_for_each(pos, n, src, head)
90     {
91         dup = valloc(sizeof(struct mm_region));
92         memcpy(dup, pos, sizeof(*pos));
93         region_add(dest, dup);
94     }
95 }
96
97 struct mm_region*
98 region_get(vm_regions_t* lead, unsigned long vaddr)
99 {
100     if (llist_empty(lead)) {
101         return NULL;
102     }
103
104     struct mm_region *pos, *n;
105
106     llist_for_each(pos, n, lead, head)
107     {
108         if (pos->start <= vaddr && vaddr < pos->end) {
109             return pos;
110         }
111     }
112     return NULL;
113 }