* elf-hppa.h (elf_hppa_reloc_final_type): Handle R_PARISC_GPREL64,
[deliverable/binutils-gdb.git] / bfd / elf32-spu.c
index 5be8f1cf5e538fcfc342a0485fca007ad4ce0086..17ff079c0cccdfcf3da6aae52b062d9d636453c9 100644 (file)
@@ -19,6 +19,7 @@
    51 Franklin Street - Fifth Floor, Boston, MA 02110-1301, USA.  */
 
 #include "sysdep.h"
+#include "libiberty.h"
 #include "bfd.h"
 #include "bfdlink.h"
 #include "libbfd.h"
@@ -90,6 +91,7 @@ static reloc_howto_type elf_howto_table[] = {
 };
 
 static struct bfd_elf_special_section const spu_elf_special_sections[] = {
+  { "._ea", 4, 0, SHT_PROGBITS, SHF_WRITE },
   { ".toe", 4, 0, SHT_NOBITS, SHF_ALLOC },
   { NULL, 0, 0, 0, 0 }
 };
@@ -239,6 +241,44 @@ spu_elf_new_section_hook (bfd *abfd, asection *sec)
   return _bfd_elf_new_section_hook (abfd, sec);
 }
 
+/* Set up overlay info for executables.  */
+
+static bfd_boolean
+spu_elf_object_p (bfd *abfd)
+{
+  if ((abfd->flags & (EXEC_P | DYNAMIC)) != 0)
+    {
+      unsigned int i, num_ovl, num_buf;
+      Elf_Internal_Phdr *phdr = elf_tdata (abfd)->phdr;
+      Elf_Internal_Ehdr *ehdr = elf_elfheader (abfd);
+      Elf_Internal_Phdr *last_phdr = NULL;
+
+      for (num_buf = 0, num_ovl = 0, i = 0; i < ehdr->e_phnum; i++, phdr++)
+       if (phdr->p_type == PT_LOAD && (phdr->p_flags & PF_OVERLAY) != 0)
+         {
+           unsigned int j;
+
+           ++num_ovl;
+           if (last_phdr == NULL
+               || ((last_phdr->p_vaddr ^ phdr->p_vaddr) & 0x3ffff) != 0)
+             ++num_buf;
+           last_phdr = phdr;
+           for (j = 1; j < elf_numsections (abfd); j++)
+             {
+               Elf_Internal_Shdr *shdr = elf_elfsections (abfd)[j];
+
+               if (ELF_IS_SECTION_IN_SEGMENT_MEMORY (shdr, phdr))
+                 {
+                   asection *sec = shdr->bfd_section;
+                   spu_elf_section_data (sec)->u.o.ovl_index = num_ovl;
+                   spu_elf_section_data (sec)->u.o.ovl_buf = num_buf;
+                 }
+             }
+         }
+    }
+  return TRUE;
+}
+
 /* Specially mark defined symbols named _EAR_* with BSF_KEEP so that
    strip --strip-unneeded will not remove them.  */
 
@@ -278,6 +318,34 @@ struct spu_link_hash_table
   /* Total number of overlays.  */
   unsigned int num_overlays;
 
+  /* How much memory we have.  */
+  unsigned int local_store;
+  /* Local store --auto-overlay should reserve for non-overlay
+     functions and data.  */
+  unsigned int overlay_fixed;
+  /* Local store --auto-overlay should reserve for stack and heap.  */
+  unsigned int reserved;
+  /* If reserved is not specified, stack analysis will calculate a value
+     for the stack.  This parameter adjusts that value to allow for
+     negative sp access (the ABI says 2000 bytes below sp are valid,
+     and the overlay manager uses some of this area).  */
+  int extra_stack_space;
+  /* Count of overlay stubs needed in non-overlay area.  */
+  unsigned int non_ovly_stub;
+
+  /* Stash various callbacks for --auto-overlay.  */
+  void (*spu_elf_load_ovl_mgr) (void);
+  FILE *(*spu_elf_open_overlay_script) (void);
+  void (*spu_elf_relink) (void);
+
+  /* Bit 0 set if --auto-overlay.
+     Bit 1 set if --auto-relink.
+     Bit 2 set if --overlay-rodata.  */
+  unsigned int auto_overlay : 3;
+#define AUTO_OVERLAY 1
+#define AUTO_RELINK 2
+#define OVERLAY_RODATA 4
+
   /* Set if we should emit symbols for stubs.  */
   unsigned int emit_stub_syms:1;
 
@@ -385,17 +453,9 @@ get_sym_h (struct elf_link_hash_entry **hp,
        {
          locsyms = (Elf_Internal_Sym *) symtab_hdr->contents;
          if (locsyms == NULL)
-           {
-             size_t symcount = symtab_hdr->sh_info;
-
-             /* If we are reading symbols into the contents, then
-                read the global syms too.  This is done to cache
-                syms for later stack analysis.  */
-             if ((unsigned char **) locsymsp == &symtab_hdr->contents)
-               symcount = symtab_hdr->sh_size / symtab_hdr->sh_entsize;
-             locsyms = bfd_elf_get_elf_syms (ibfd, symtab_hdr, symcount, 0,
-                                             NULL, NULL, NULL);
-           }
+           locsyms = bfd_elf_get_elf_syms (ibfd, symtab_hdr,
+                                           symtab_hdr->sh_info,
+                                           0, NULL, NULL, NULL);
          if (locsyms == NULL)
            return FALSE;
          *locsymsp = locsyms;
@@ -721,7 +781,7 @@ needs_ovl_stub (struct elf_link_hash_entry *h,
          branch = TRUE;
          if ((contents[0] & 0xfd) == 0x31
              && sym_type != STT_FUNC
-             && contents == insn)
+             && contents != insn)
            {
              /* It's common for people to write assembly and forget
                 to give function symbols the right type.  Handle
@@ -759,7 +819,7 @@ needs_ovl_stub (struct elf_link_hash_entry *h,
      section needs a stub.  */
   if (spu_elf_section_data (sym_sec->output_section)->u.o.ovl_index
        != spu_elf_section_data (input_section->output_section)->u.o.ovl_index)
-    return ovl_stub;
+    ret = ovl_stub;
 
   /* If this insn isn't a branch then we are possibly taking the
      address of a function and passing it out somehow.  */
@@ -917,7 +977,7 @@ build_stub (struct spu_link_hash_table *htab,
   if (OVL_STUB_SIZE == 16)
     val -= 12;
   if (((dest | to | from) & 3) != 0
-      || val + 0x20000 >= 0x40000)
+      || val + 0x40000 >= 0x80000)
     {
       htab->stub_err = 1;
       return FALSE;
@@ -940,7 +1000,7 @@ build_stub (struct spu_link_hash_table *htab,
       bfd_put_32 (sec->owner, BRSL + ((val << 5) & 0x007fff80) + 75,
                  sec->contents + sec->size);
 
-      val = (dest & 0x3ffff) | (ovl << 14);
+      val = (dest & 0x3ffff) | (ovl << 18);
       bfd_put_32 (sec->owner, val,
                  sec->contents + sec->size + 4);
     }
@@ -1008,14 +1068,22 @@ allocate_spuear_stubs (struct elf_link_hash_entry *h, void *inf)
 {
   /* Symbols starting with _SPUEAR_ need a stub because they may be
      invoked by the PPU.  */
+  struct bfd_link_info *info = inf;
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  asection *sym_sec;
+
   if ((h->root.type == bfd_link_hash_defined
        || h->root.type == bfd_link_hash_defweak)
       && h->def_regular
-      && strncmp (h->root.root.string, "_SPUEAR_", 8) == 0)
+      && strncmp (h->root.root.string, "_SPUEAR_", 8) == 0
+      && (sym_sec = h->root.u.def.section) != NULL
+      && sym_sec->output_section != NULL
+      && sym_sec->output_section->owner == info->output_bfd
+      && spu_elf_section_data (sym_sec->output_section) != NULL
+      && (spu_elf_section_data (sym_sec->output_section)->u.o.ovl_index != 0
+         || htab->non_overlay_stubs))
     {
-      struct spu_link_hash_table *htab = inf;
-
-      count_stub (htab, NULL, NULL, nonovl_stub, h, NULL);
+      return count_stub (htab, NULL, NULL, nonovl_stub, h, NULL);
     }
   
   return TRUE;
@@ -1026,15 +1094,23 @@ build_spuear_stubs (struct elf_link_hash_entry *h, void *inf)
 {
   /* Symbols starting with _SPUEAR_ need a stub because they may be
      invoked by the PPU.  */
+  struct bfd_link_info *info = inf;
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  asection *sym_sec;
+
   if ((h->root.type == bfd_link_hash_defined
        || h->root.type == bfd_link_hash_defweak)
       && h->def_regular
-      && strncmp (h->root.root.string, "_SPUEAR_", 8) == 0)
+      && strncmp (h->root.root.string, "_SPUEAR_", 8) == 0
+      && (sym_sec = h->root.u.def.section) != NULL
+      && sym_sec->output_section != NULL
+      && sym_sec->output_section->owner == info->output_bfd
+      && spu_elf_section_data (sym_sec->output_section) != NULL
+      && (spu_elf_section_data (sym_sec->output_section)->u.o.ovl_index != 0
+         || htab->non_overlay_stubs))
     {
-      struct spu_link_hash_table *htab = inf;
-
-      build_stub (htab, NULL, NULL, nonovl_stub, h, NULL,
-                 h->root.u.def.value, h->root.u.def.section);
+      return build_stub (htab, NULL, NULL, nonovl_stub, h, NULL,
+                        h->root.u.def.value, sym_sec);
     }
   
   return TRUE;
@@ -1054,7 +1130,6 @@ process_stubs (struct bfd_link_info *info, bfd_boolean build)
       Elf_Internal_Shdr *symtab_hdr;
       asection *isec;
       Elf_Internal_Sym *local_syms = NULL;
-      void *psyms;
 
       if (ibfd->xvec != &bfd_elf32_spu_vec)
        continue;
@@ -1064,11 +1139,6 @@ process_stubs (struct bfd_link_info *info, bfd_boolean build)
       if (symtab_hdr->sh_info == 0)
        continue;
 
-      /* Arrange to read and keep global syms for later stack analysis.  */
-      psyms = &local_syms;
-      if (htab->stack_analysis)
-       psyms = &symtab_hdr->contents;
-
       /* Walk over each section attached to the input bfd.  */
       for (isec = ibfd->sections; isec != NULL; isec = isec->next)
        {
@@ -1118,7 +1188,7 @@ process_stubs (struct bfd_link_info *info, bfd_boolean build)
                }
 
              /* Determine the reloc target section.  */
-             if (!get_sym_h (&h, &sym, &sym_sec, psyms, r_indx, ibfd))
+             if (!get_sym_h (&h, &sym, &sym_sec, &local_syms, r_indx, ibfd))
                goto error_ret_free_internal;
 
              stub_type = needs_ovl_stub (h, sym, sym_sec, isec, irela,
@@ -1194,7 +1264,7 @@ spu_elf_size_stubs (struct bfd_link_info *info,
   if (!process_stubs (info, FALSE))
     return 0;
 
-  elf_link_hash_traverse (&htab->elf, allocate_spuear_stubs, htab);
+  elf_link_hash_traverse (&htab->elf, allocate_spuear_stubs, info);
   if (htab->stub_err)
     return 0;
 
@@ -1381,7 +1451,7 @@ spu_elf_build_stubs (struct bfd_link_info *info, int emit_syms)
   if (spu_elf_section_data (s)->u.o.ovl_index)
     {
       (*_bfd_error_handler) (_("%s in overlay section"),
-                            h->root.u.def.section->owner);
+                            h->root.root.string);
       bfd_set_error (bfd_error_bad_value);
       return FALSE;
     }
@@ -1391,10 +1461,15 @@ spu_elf_build_stubs (struct bfd_link_info *info, int emit_syms)
 
   /* Fill in all the stubs.  */
   process_stubs (info, TRUE);
+  if (!htab->stub_err)
+    elf_link_hash_traverse (&htab->elf, build_spuear_stubs, info);
 
-  elf_link_hash_traverse (&htab->elf, build_spuear_stubs, htab);
   if (htab->stub_err)
-    return FALSE;
+    {
+      (*_bfd_error_handler) (_("overlay stub relocation overflow"));
+      bfd_set_error (bfd_error_bad_value);
+      return FALSE;
+    }
 
   for (i = 0; i <= htab->num_overlays; i++)
     {
@@ -1407,13 +1482,6 @@ spu_elf_build_stubs (struct bfd_link_info *info, int emit_syms)
       htab->stub_sec[i]->rawsize = 0;
     }
 
-  if (htab->stub_err)
-    {
-      (*_bfd_error_handler) (_("overlay stub relocation overflow"));
-      bfd_set_error (bfd_error_bad_value);
-      return FALSE;
-    }
-
   htab->ovtab->contents = bfd_zalloc (htab->ovtab->owner, htab->ovtab->size);
   if (htab->ovtab->contents == NULL)
     return FALSE;
@@ -1474,15 +1542,35 @@ spu_elf_build_stubs (struct bfd_link_info *info, int emit_syms)
 }
 
 /* Check that all loadable section VMAs lie in the range
-   LO .. HI inclusive.  */
+   LO .. HI inclusive, and stash some parameters for --auto-overlay.  */
 
 asection *
-spu_elf_check_vma (struct bfd_link_info *info, bfd_vma lo, bfd_vma hi)
+spu_elf_check_vma (struct bfd_link_info *info,
+                  int auto_overlay,
+                  unsigned int lo,
+                  unsigned int hi,
+                  unsigned int overlay_fixed,
+                  unsigned int reserved,
+                  int extra_stack_space,
+                  void (*spu_elf_load_ovl_mgr) (void),
+                  FILE *(*spu_elf_open_overlay_script) (void),
+                  void (*spu_elf_relink) (void))
 {
   struct elf_segment_map *m;
   unsigned int i;
+  struct spu_link_hash_table *htab = spu_hash_table (info);
   bfd *abfd = info->output_bfd;
 
+  if (auto_overlay & AUTO_OVERLAY)
+    htab->auto_overlay = auto_overlay;
+  htab->local_store = hi + 1 - lo;
+  htab->overlay_fixed = overlay_fixed;
+  htab->reserved = reserved;
+  htab->extra_stack_space = extra_stack_space;
+  htab->spu_elf_load_ovl_mgr = spu_elf_load_ovl_mgr;
+  htab->spu_elf_open_overlay_script = spu_elf_open_overlay_script;
+  htab->spu_elf_relink = spu_elf_relink;
+
   for (m = elf_tdata (abfd)->segment_map; m != NULL; m = m->next)
     if (m->p_type == PT_LOAD)
       for (i = 0; i < m->count; i++)
@@ -1492,6 +1580,8 @@ spu_elf_check_vma (struct bfd_link_info *info, bfd_vma lo, bfd_vma hi)
                || m->sections[i]->vma + m->sections[i]->size - 1 > hi))
          return m->sections[i];
 
+  /* No need for overlays if it all fits.  */
+  htab->auto_overlay = 0;
   return NULL;
 }
 
@@ -1627,7 +1717,10 @@ struct call_info
 {
   struct function_info *fun;
   struct call_info *next;
+  unsigned int count;
+  unsigned int max_depth;
   unsigned int is_tail : 1;
+  unsigned int is_pasted : 1;
 };
 
 struct function_info
@@ -1644,21 +1737,34 @@ struct function_info
   } u;
   /* Function section.  */
   asection *sec;
+  asection *rodata;
+  /* Where last called from, and number of sections called from.  */
+  asection *last_caller;
+  unsigned int call_count;
   /* Address range of (this part of) function.  */
   bfd_vma lo, hi;
   /* Stack usage.  */
   int stack;
+  /* Distance from root of call tree.  Tail and hot/cold branches
+     count as one deeper.  We aren't counting stack frames here.  */
+  unsigned int depth;
   /* Set if global symbol.  */
   unsigned int global : 1;
   /* Set if known to be start of function (as distinct from a hunk
      in hot/cold section.  */
   unsigned int is_func : 1;
-  /* Flags used during call tree traversal.  */
-  unsigned int visit1 : 1;
+  /* Set if not a root node.  */
   unsigned int non_root : 1;
+  /* Flags used during call tree traversal.  It's cheaper to replicate
+     the visit flags than have one which needs clearing after a traversal.  */
+  unsigned int visit1 : 1;
   unsigned int visit2 : 1;
   unsigned int marking : 1;
   unsigned int visit3 : 1;
+  unsigned int visit4 : 1;
+  unsigned int visit5 : 1;
+  unsigned int visit6 : 1;
+  unsigned int visit7 : 1;
 };
 
 struct spu_elf_stack_info
@@ -1746,10 +1852,7 @@ maybe_insert_function (asection *sec,
        return &sinfo->fun[i];
     }
 
-  if (++i < sinfo->num_fun)
-    memmove (&sinfo->fun[i + 1], &sinfo->fun[i],
-            (sinfo->num_fun - i) * sizeof (sinfo->fun[i]));
-  else if (i >= sinfo->max_fun)
+  if (sinfo->num_fun >= sinfo->max_fun)
     {
       bfd_size_type amt = sizeof (struct spu_elf_stack_info);
       bfd_size_type old = amt;
@@ -1763,6 +1866,10 @@ maybe_insert_function (asection *sec,
       memset ((char *) sinfo + old, 0, amt - old);
       sec_data->u.i.stack_info = sinfo;
     }
+
+  if (++i < sinfo->num_fun)
+    memmove (&sinfo->fun[i + 1], &sinfo->fun[i],
+            (sinfo->num_fun - i) * sizeof (sinfo->fun[i]));
   sinfo->fun[i].is_func = is_func;
   sinfo->fun[i].global = global;
   sinfo->fun[i].sec = sec;
@@ -1918,7 +2025,9 @@ find_function (asection *sec, bfd_vma offset, struct bfd_link_info *info)
   return NULL;
 }
 
-/* Add CALLEE to CALLER call list if not already present.  */
+/* Add CALLEE to CALLER call list if not already present.  Return TRUE
+   if CALLEE was new.  If this function return FALSE, CALLEE should
+   be freed.  */
 
 static bfd_boolean
 insert_callee (struct function_info *caller, struct call_info *callee)
@@ -1936,6 +2045,7 @@ insert_callee (struct function_info *caller, struct call_info *callee)
            p->fun->start = NULL;
            p->fun->is_func = TRUE;
          }
+       p->count += 1;
        /* Reorder list so most recent call is first.  */
        *pp = p->next;
        p->next = caller->call_list;
@@ -1943,10 +2053,26 @@ insert_callee (struct function_info *caller, struct call_info *callee)
        return FALSE;
       }
   callee->next = caller->call_list;
+  callee->count += 1;
   caller->call_list = callee;
   return TRUE;
 }
 
+/* Copy CALL and insert the copy into CALLER.  */
+
+static bfd_boolean
+copy_callee (struct function_info *caller, const struct call_info *call)
+{
+  struct call_info *callee;
+  callee = bfd_malloc (sizeof (*callee));
+  if (callee == NULL)
+    return FALSE;
+  *callee = *call;
+  if (!insert_callee (caller, callee))
+    free (callee);
+  return TRUE;
+}
+
 /* We're only interested in code sections.  Testing SEC_IN_MEMORY excludes
    overlay stub sections.  */
 
@@ -1972,8 +2098,7 @@ mark_functions_via_relocs (asection *sec,
                           int call_tree)
 {
   Elf_Internal_Rela *internal_relocs, *irelaend, *irela;
-  Elf_Internal_Shdr *symtab_hdr = &elf_tdata (sec->owner)->symtab_hdr;
-  Elf_Internal_Sym *syms;
+  Elf_Internal_Shdr *symtab_hdr;
   void *psyms;
   static bfd_boolean warned;
 
@@ -1988,7 +2113,6 @@ mark_functions_via_relocs (asection *sec,
 
   symtab_hdr = &elf_tdata (sec->owner)->symtab_hdr;
   psyms = &symtab_hdr->contents;
-  syms = *(Elf_Internal_Sym **) psyms;
   irela = internal_relocs;
   irelaend = irela + sec->reloc_count;
   for (; irela < irelaend; irela++)
@@ -1999,15 +2123,19 @@ mark_functions_via_relocs (asection *sec,
       Elf_Internal_Sym *sym;
       struct elf_link_hash_entry *h;
       bfd_vma val;
-      unsigned char insn[4];
-      bfd_boolean is_call;
+      bfd_boolean reject, is_call;
       struct function_info *caller;
       struct call_info *callee;
 
+      reject = FALSE;
       r_type = ELF32_R_TYPE (irela->r_info);
       if (r_type != R_SPU_REL16
          && r_type != R_SPU_ADDR16)
-       continue;
+       {
+         reject = TRUE;
+         if (!(call_tree && spu_hash_table (info)->auto_overlay))
+           continue;
+       }
 
       r_indx = ELF32_R_SYM (irela->r_info);
       if (!get_sym_h (&h, &sym, &sym_sec, psyms, r_indx, sec->owner))
@@ -2018,27 +2146,53 @@ mark_functions_via_relocs (asection *sec,
          || sym_sec->output_section->owner != info->output_bfd)
        continue;
 
-      if (!bfd_get_section_contents (sec->owner, sec, insn,
-                                    irela->r_offset, 4))
-       return FALSE;
-      if (!is_branch (insn))
-       continue;
+      is_call = FALSE;
+      if (!reject)
+       {
+         unsigned char insn[4];
+
+         if (!bfd_get_section_contents (sec->owner, sec, insn,
+                                        irela->r_offset, 4))
+           return FALSE;
+         if (is_branch (insn))
+           {
+             is_call = (insn[0] & 0xfd) == 0x31;
+             if ((sym_sec->flags & (SEC_ALLOC | SEC_LOAD | SEC_CODE))
+                 != (SEC_ALLOC | SEC_LOAD | SEC_CODE))
+               {
+                 if (!warned)
+                   info->callbacks->einfo
+                     (_("%B(%A+0x%v): call to non-code section"
+                        " %B(%A), analysis incomplete\n"),
+                      sec->owner, sec, irela->r_offset,
+                      sym_sec->owner, sym_sec);
+                 warned = TRUE;
+                 continue;
+               }
+           }
+         else
+           {
+             reject = TRUE;
+             if (!(call_tree && spu_hash_table (info)->auto_overlay)
+                 || is_hint (insn))
+               continue;
+           }
+       }
 
-      if ((sym_sec->flags & (SEC_ALLOC | SEC_LOAD | SEC_CODE))
-         != (SEC_ALLOC | SEC_LOAD | SEC_CODE))
+      if (reject)
        {
-         if (!call_tree)
-           warned = TRUE;
-         if (!call_tree || !warned)
-           info->callbacks->einfo (_("%B(%A+0x%v): call to non-code section"
-                                     " %B(%A), stack analysis incomplete\n"),
-                                   sec->owner, sec, irela->r_offset,
-                                   sym_sec->owner, sym_sec);
+         /* For --auto-overlay, count possible stubs we need for
+            function pointer references.  */
+         unsigned int sym_type;
+         if (h)
+           sym_type = h->type;
+         else
+           sym_type = ELF_ST_TYPE (sym->st_info);
+         if (sym_type == STT_FUNC)
+           spu_hash_table (info)->non_ovly_stub += 1;
          continue;
        }
 
-      is_call = (insn[0] & 0xfd) == 0x31;
-
       if (h)
        val = h->root.u.def.value;
       else
@@ -2082,6 +2236,13 @@ mark_functions_via_relocs (asection *sec,
       if (callee->fun == NULL)
        return FALSE;
       callee->is_tail = !is_call;
+      callee->is_pasted = FALSE;
+      callee->count = 0;
+      if (callee->fun->last_caller != sec)
+       {
+         callee->fun->last_caller = sec;
+         callee->fun->call_count += 1;
+       }
       if (!insert_callee (caller, callee))
        free (callee);
       else if (!is_call
@@ -2152,8 +2313,21 @@ pasted_function (asection *sec, struct bfd_link_info *info)
       if (l->u.indirect.section == sec)
        {
          if (fun_start != NULL)
-           fun->start = fun_start;
-         return TRUE;
+           {
+             struct call_info *callee = bfd_malloc (sizeof *callee);
+             if (callee == NULL)
+               return FALSE;
+
+             fun->start = fun_start;
+             callee->fun = fun;
+             callee->is_tail = TRUE;
+             callee->is_pasted = TRUE;
+             callee->count = 0;
+             if (!insert_callee (fun_start, callee))
+               free (callee);
+             return TRUE;
+           }
+         break;
        }
       if (l->type == bfd_indirect_link_order
          && (sec_data = spu_elf_section_data (l->u.indirect.section)) != NULL
@@ -2218,15 +2392,18 @@ discover_functions (struct bfd_link_info *info)
          continue;
        }
 
-      syms = (Elf_Internal_Sym *) symtab_hdr->contents;
-      if (syms == NULL)
+      if (symtab_hdr->contents != NULL)
        {
-         syms = bfd_elf_get_elf_syms (ibfd, symtab_hdr, symcount, 0,
-                                      NULL, NULL, NULL);
-         symtab_hdr->contents = (void *) syms;
-         if (syms == NULL)
-           return FALSE;
+         /* Don't use cached symbols since the generic ELF linker
+            code only reads local symbols, and we need globals too.  */ 
+         free (symtab_hdr->contents);
+         symtab_hdr->contents = NULL;
        }
+      syms = bfd_elf_get_elf_syms (ibfd, symtab_hdr, symcount, 0,
+                                  NULL, NULL, NULL);
+      symtab_hdr->contents = (void *) syms;
+      if (syms == NULL)
+       return FALSE;
 
       /* Select defined function symbols that are going to be output.  */
       psyms = bfd_malloc ((symcount + 1) * sizeof (*psyms));
@@ -2493,15 +2670,18 @@ mark_non_root (struct function_info *fun,
   return TRUE;
 }
 
-/* Remove cycles from the call graph.  */
+/* Remove cycles from the call graph.  Set depth of nodes.  */
 
 static bfd_boolean
 remove_cycles (struct function_info *fun,
               struct bfd_link_info *info,
-              void *param ATTRIBUTE_UNUSED)
+              void *param)
 {
   struct call_info **callp, *call;
+  unsigned int depth = *(unsigned int *) param;
+  unsigned int max_depth = depth;
 
+  fun->depth = depth;
   fun->visit2 = TRUE;
   fun->marking = TRUE;
 
@@ -2510,17 +2690,23 @@ remove_cycles (struct function_info *fun,
     {
       if (!call->fun->visit2)
        {
-         if (!remove_cycles (call->fun, info, 0))
+         call->max_depth = depth + !call->is_pasted;
+         if (!remove_cycles (call->fun, info, &call->max_depth))
            return FALSE;
+         if (max_depth < call->max_depth)
+           max_depth = call->max_depth;
        }
       else if (call->fun->marking)
        {
-         const char *f1 = func_name (fun);
-         const char *f2 = func_name (call->fun);
+         if (!spu_hash_table (info)->auto_overlay)
+           {
+             const char *f1 = func_name (fun);
+             const char *f2 = func_name (call->fun);
 
-         info->callbacks->info (_("Stack analysis will ignore the call "
-                                  "from %s to %s\n"),
-                                f1, f2);
+             info->callbacks->info (_("Stack analysis will ignore the call "
+                                      "from %s to %s\n"),
+                                    f1, f2);
+           }
          *callp = call->next;
          free (call);
          continue;
@@ -2528,6 +2714,7 @@ remove_cycles (struct function_info *fun,
       callp = &call->next;
     }
   fun->marking = FALSE;
+  *(unsigned int *) param = max_depth;
   return TRUE;
 }
 
@@ -2537,6 +2724,7 @@ static bfd_boolean
 build_call_tree (struct bfd_link_info *info)
 {
   bfd *ibfd;
+  unsigned int depth;
 
   for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
     {
@@ -2553,7 +2741,8 @@ build_call_tree (struct bfd_link_info *info)
 
   /* Transfer call info from hot/cold section part of function
      to main entry.  */
-  if (!for_each_node (transfer_calls, info, 0, FALSE))
+  if (!spu_hash_table (info)->auto_overlay
+      && !for_each_node (transfer_calls, info, 0, FALSE))
     return FALSE;
 
   /* Find the call graph root(s).  */
@@ -2562,7 +2751,535 @@ build_call_tree (struct bfd_link_info *info)
 
   /* Remove cycles from the call graph.  We start from the root node(s)
      so that we break cycles in a reasonable place.  */
-  return for_each_node (remove_cycles, info, 0, TRUE);
+  depth = 0;
+  return for_each_node (remove_cycles, info, &depth, TRUE);
+}
+
+/* qsort predicate to sort calls by max_depth then count.  */
+
+static int
+sort_calls (const void *a, const void *b)
+{
+  struct call_info *const *c1 = a;
+  struct call_info *const *c2 = b;
+  int delta;
+
+  delta = (*c2)->max_depth - (*c1)->max_depth;
+  if (delta != 0)
+    return delta;
+
+  delta = (*c2)->count - (*c1)->count;
+  if (delta != 0)
+    return delta;
+
+  return c1 - c2;
+}
+
+struct _mos_param {
+  unsigned int max_overlay_size;
+};
+
+/* Set linker_mark and gc_mark on any sections that we will put in
+   overlays.  These flags are used by the generic ELF linker, but we
+   won't be continuing on to bfd_elf_final_link so it is OK to use
+   them.  linker_mark is clear before we get here.  Set segment_mark
+   on sections that are part of a pasted function (excluding the last
+   section).
+
+   Set up function rodata section if --overlay-rodata.  We don't
+   currently include merged string constant rodata sections since
+
+   Sort the call graph so that the deepest nodes will be visited
+   first.  */
+
+static bfd_boolean
+mark_overlay_section (struct function_info *fun,
+                     struct bfd_link_info *info,
+                     void *param)
+{
+  struct call_info *call;
+  unsigned int count;
+  struct _mos_param *mos_param = param;
+
+  if (fun->visit4)
+    return TRUE;
+
+  fun->visit4 = TRUE;
+  if (!fun->sec->linker_mark)
+    {
+      unsigned int size;
+
+      fun->sec->linker_mark = 1;
+      fun->sec->gc_mark = 1;
+      fun->sec->segment_mark = 0;
+      /* Ensure SEC_CODE is set on this text section (it ought to
+        be!), and SEC_CODE is clear on rodata sections.  We use
+        this flag to differentiate the two overlay section types.  */
+      fun->sec->flags |= SEC_CODE;
+
+      if (spu_hash_table (info)->auto_overlay & OVERLAY_RODATA)
+       {
+         char *name = NULL;
+
+         /* Find the rodata section corresponding to this function's
+            text section.  */
+         if (strcmp (fun->sec->name, ".text") == 0)
+           {
+             name = bfd_malloc (sizeof (".rodata"));
+             if (name == NULL)
+               return FALSE;
+             memcpy (name, ".rodata", sizeof (".rodata"));
+           }
+         else if (strncmp (fun->sec->name, ".text.", 6) == 0)
+           {
+             size_t len = strlen (fun->sec->name);
+             name = bfd_malloc (len + 3);
+             if (name == NULL)
+               return FALSE;
+             memcpy (name, ".rodata", sizeof (".rodata"));
+             memcpy (name + 7, fun->sec->name + 5, len - 4);
+           }
+         else if (strncmp (fun->sec->name, ".gnu.linkonce.t.", 16) == 0)
+           {
+             size_t len = strlen (fun->sec->name) + 1;
+             name = bfd_malloc (len);
+             if (name == NULL)
+               return FALSE;
+             memcpy (name, fun->sec->name, len);
+             name[14] = 'r';
+           }
+
+         if (name != NULL)
+           {
+             asection *rodata = NULL;
+             asection *group_sec = elf_section_data (fun->sec)->next_in_group;
+             if (group_sec == NULL)
+               rodata = bfd_get_section_by_name (fun->sec->owner, name);
+             else
+               while (group_sec != NULL && group_sec != fun->sec)
+                 {
+                   if (strcmp (group_sec->name, name) == 0)
+                     {
+                       rodata = group_sec;
+                       break;
+                     }
+                   group_sec = elf_section_data (group_sec)->next_in_group;
+                 }
+             fun->rodata = rodata;
+             if (fun->rodata)
+               {
+                 fun->rodata->linker_mark = 1;
+                 fun->rodata->gc_mark = 1;
+                 fun->rodata->flags &= ~SEC_CODE;
+               }
+             free (name);
+           }
+       }
+      size = fun->sec->size;
+      if (fun->rodata)
+       size += fun->rodata->size;
+      if (mos_param->max_overlay_size < size)
+       mos_param->max_overlay_size = size;
+    }
+
+  for (count = 0, call = fun->call_list; call != NULL; call = call->next)
+    count += 1;
+
+  if (count > 1)
+    {
+      struct call_info **calls = bfd_malloc (count * sizeof (*calls));
+      if (calls == NULL)
+       return FALSE;
+
+      for (count = 0, call = fun->call_list; call != NULL; call = call->next)
+       calls[count++] = call;
+
+      qsort (calls, count, sizeof (*calls), sort_calls);
+
+      fun->call_list = NULL;
+      while (count != 0)
+       {
+         --count;
+         calls[count]->next = fun->call_list;
+         fun->call_list = calls[count];
+       }
+      free (calls);
+    }
+
+  for (call = fun->call_list; call != NULL; call = call->next)
+    {
+      if (call->is_pasted)
+       {
+         /* There can only be one is_pasted call per function_info.  */
+         BFD_ASSERT (!fun->sec->segment_mark);
+         fun->sec->segment_mark = 1;
+       }
+      if (!mark_overlay_section (call->fun, info, param))
+       return FALSE;
+    }
+
+  /* Don't put entry code into an overlay.  The overlay manager needs
+     a stack!  */
+  if (fun->lo + fun->sec->output_offset + fun->sec->output_section->vma
+      == info->output_bfd->start_address)
+    {
+      fun->sec->linker_mark = 0;
+      if (fun->rodata != NULL)
+       fun->rodata->linker_mark = 0;
+    }
+  return TRUE;
+}
+
+/* If non-zero then unmark functions called from those within sections
+   that we need to unmark.  Unfortunately this isn't reliable since the
+   call graph cannot know the destination of function pointer calls.  */
+#define RECURSE_UNMARK 0
+
+struct _uos_param {
+  asection *exclude_input_section;
+  asection *exclude_output_section;
+  unsigned long clearing;
+};
+
+/* Undo some of mark_overlay_section's work.  */
+
+static bfd_boolean
+unmark_overlay_section (struct function_info *fun,
+                       struct bfd_link_info *info,
+                       void *param)
+{
+  struct call_info *call;
+  struct _uos_param *uos_param = param;
+  unsigned int excluded = 0;
+
+  if (fun->visit5)
+    return TRUE;
+
+  fun->visit5 = TRUE;
+
+  excluded = 0;
+  if (fun->sec == uos_param->exclude_input_section
+      || fun->sec->output_section == uos_param->exclude_output_section)
+    excluded = 1;
+
+  if (RECURSE_UNMARK)
+    uos_param->clearing += excluded;
+
+  if (RECURSE_UNMARK ? uos_param->clearing : excluded)
+    {
+      fun->sec->linker_mark = 0;
+      if (fun->rodata)
+       fun->rodata->linker_mark = 0;
+    }
+
+  for (call = fun->call_list; call != NULL; call = call->next)
+    if (!unmark_overlay_section (call->fun, info, param))
+      return FALSE;
+
+  if (RECURSE_UNMARK)
+    uos_param->clearing -= excluded;
+  return TRUE;
+}
+
+struct _cl_param {
+  unsigned int lib_size;
+  asection **lib_sections;
+};
+
+/* Add sections we have marked as belonging to overlays to an array
+   for consideration as non-overlay sections.  The array consist of
+   pairs of sections, (text,rodata), for functions in the call graph.  */
+
+static bfd_boolean
+collect_lib_sections (struct function_info *fun,
+                     struct bfd_link_info *info,
+                     void *param)
+{
+  struct _cl_param *lib_param = param;
+  struct call_info *call;
+  unsigned int size;
+
+  if (fun->visit6)
+    return TRUE;
+
+  fun->visit6 = TRUE;
+  if (!fun->sec->linker_mark || !fun->sec->gc_mark || fun->sec->segment_mark)
+    return TRUE;
+
+  size = fun->sec->size;
+  if (fun->rodata)
+    size += fun->rodata->size;
+  if (size > lib_param->lib_size)
+    return TRUE;
+
+  *lib_param->lib_sections++ = fun->sec;
+  fun->sec->gc_mark = 0;
+  if (fun->rodata && fun->rodata->linker_mark && fun->rodata->gc_mark)
+    {
+      *lib_param->lib_sections++ = fun->rodata;
+      fun->rodata->gc_mark = 0;
+    }
+  else
+    *lib_param->lib_sections++ = NULL;
+
+  for (call = fun->call_list; call != NULL; call = call->next)
+    collect_lib_sections (call->fun, info, param);
+
+  return TRUE;
+}
+
+/* qsort predicate to sort sections by call count.  */
+
+static int
+sort_lib (const void *a, const void *b)
+{
+  asection *const *s1 = a;
+  asection *const *s2 = b;
+  struct _spu_elf_section_data *sec_data;
+  struct spu_elf_stack_info *sinfo;
+  int delta;
+
+  delta = 0;
+  if ((sec_data = spu_elf_section_data (*s1)) != NULL
+      && (sinfo = sec_data->u.i.stack_info) != NULL)
+    {
+      int i;
+      for (i = 0; i < sinfo->num_fun; ++i)
+       delta -= sinfo->fun[i].call_count;
+    }
+
+  if ((sec_data = spu_elf_section_data (*s2)) != NULL
+      && (sinfo = sec_data->u.i.stack_info) != NULL)
+    {
+      int i;
+      for (i = 0; i < sinfo->num_fun; ++i)
+       delta += sinfo->fun[i].call_count;
+    }
+
+  if (delta != 0)
+    return delta;
+
+  return s1 - s2;
+}
+
+/* Remove some sections from those marked to be in overlays.  Choose
+   those that are called from many places, likely library functions.  */
+
+static unsigned int
+auto_ovl_lib_functions (struct bfd_link_info *info, unsigned int lib_size)
+{
+  bfd *ibfd;
+  asection **lib_sections;
+  unsigned int i, lib_count;
+  struct _cl_param collect_lib_param;
+  struct function_info dummy_caller;
+
+  memset (&dummy_caller, 0, sizeof (dummy_caller));
+  lib_count = 0;
+  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+    {
+      extern const bfd_target bfd_elf32_spu_vec;
+      asection *sec;
+
+      if (ibfd->xvec != &bfd_elf32_spu_vec)
+       continue;
+
+      for (sec = ibfd->sections; sec != NULL; sec = sec->next)
+       if (sec->linker_mark
+           && sec->size < lib_size
+           && (sec->flags & SEC_CODE) != 0)
+         lib_count += 1;
+    }
+  lib_sections = bfd_malloc (lib_count * 2 * sizeof (*lib_sections));
+  if (lib_sections == NULL)
+    return (unsigned int) -1;
+  collect_lib_param.lib_size = lib_size;
+  collect_lib_param.lib_sections = lib_sections;
+  if (!for_each_node (collect_lib_sections, info, &collect_lib_param,
+                     TRUE))
+    return (unsigned int) -1;
+  lib_count = (collect_lib_param.lib_sections - lib_sections) / 2;
+
+  /* Sort sections so that those with the most calls are first.  */
+  if (lib_count > 1)
+    qsort (lib_sections, lib_count, 2 * sizeof (*lib_sections), sort_lib);
+
+  for (i = 0; i < lib_count; i++)
+    {
+      unsigned int tmp, stub_size;
+      asection *sec;
+      struct _spu_elf_section_data *sec_data;
+      struct spu_elf_stack_info *sinfo;
+
+      sec = lib_sections[2 * i];
+      /* If this section is OK, its size must be less than lib_size.  */
+      tmp = sec->size;
+      /* If it has a rodata section, then add that too.  */
+      if (lib_sections[2 * i + 1])
+       tmp += lib_sections[2 * i + 1]->size;
+      /* Add any new overlay call stubs needed by the section.  */
+      stub_size = 0;
+      if (tmp < lib_size
+         && (sec_data = spu_elf_section_data (sec)) != NULL
+         && (sinfo = sec_data->u.i.stack_info) != NULL)
+       {
+         int k;
+         struct call_info *call;
+
+         for (k = 0; k < sinfo->num_fun; ++k)
+           for (call = sinfo->fun[k].call_list; call; call = call->next)
+             if (call->fun->sec->linker_mark)
+               {
+                 struct call_info *p;
+                 for (p = dummy_caller.call_list; p; p = p->next)
+                   if (p->fun == call->fun)
+                     break;
+                 if (!p)
+                   stub_size += OVL_STUB_SIZE;
+               }
+       }
+      if (tmp + stub_size < lib_size)
+       {
+         struct call_info **pp, *p;
+
+         /* This section fits.  Mark it as non-overlay.  */
+         lib_sections[2 * i]->linker_mark = 0;
+         if (lib_sections[2 * i + 1])
+           lib_sections[2 * i + 1]->linker_mark = 0;
+         lib_size -= tmp + stub_size;
+         /* Call stubs to the section we just added are no longer
+            needed.  */
+         pp = &dummy_caller.call_list;
+         while ((p = *pp) != NULL)
+           if (!p->fun->sec->linker_mark)
+             {
+               lib_size += OVL_STUB_SIZE;
+               *pp = p->next;
+               free (p);
+             }
+           else
+             pp = &p->next;
+         /* Add new call stubs to dummy_caller.  */
+         if ((sec_data = spu_elf_section_data (sec)) != NULL
+             && (sinfo = sec_data->u.i.stack_info) != NULL)
+           {
+             int k;
+             struct call_info *call;
+
+             for (k = 0; k < sinfo->num_fun; ++k)
+               for (call = sinfo->fun[k].call_list;
+                    call;
+                    call = call->next)
+                 if (call->fun->sec->linker_mark)
+                   {
+                     struct call_info *callee;
+                     callee = bfd_malloc (sizeof (*callee));
+                     if (callee == NULL)
+                       return (unsigned int) -1;
+                     *callee = *call;
+                     if (!insert_callee (&dummy_caller, callee))
+                       free (callee);
+                   }
+           }
+       }
+    }
+  while (dummy_caller.call_list != NULL)
+    {
+      struct call_info *call = dummy_caller.call_list;
+      dummy_caller.call_list = call->next;
+      free (call);
+    }
+  for (i = 0; i < 2 * lib_count; i++)
+    if (lib_sections[i])
+      lib_sections[i]->gc_mark = 1;
+  free (lib_sections);
+  return lib_size;
+}
+
+/* Build an array of overlay sections.  The deepest node's section is
+   added first, then its parent node's section, then everything called
+   from the parent section.  The idea being to group sections to
+   minimise calls between different overlays.  */
+
+static bfd_boolean
+collect_overlays (struct function_info *fun,
+                 struct bfd_link_info *info,
+                 void *param)
+{
+  struct call_info *call;
+  bfd_boolean added_fun;
+  asection ***ovly_sections = param;
+
+  if (fun->visit7)
+    return TRUE;
+
+  fun->visit7 = TRUE;
+  for (call = fun->call_list; call != NULL; call = call->next)
+    if (!call->is_pasted)
+      {
+       if (!collect_overlays (call->fun, info, ovly_sections))
+         return FALSE;
+       break;
+      }
+
+  added_fun = FALSE;
+  if (fun->sec->linker_mark && fun->sec->gc_mark)
+    {
+      fun->sec->gc_mark = 0;
+      *(*ovly_sections)++ = fun->sec;
+      if (fun->rodata && fun->rodata->linker_mark && fun->rodata->gc_mark)
+       {
+         fun->rodata->gc_mark = 0;
+         *(*ovly_sections)++ = fun->rodata;
+       }
+      else
+       *(*ovly_sections)++ = NULL;
+      added_fun = TRUE;
+
+      /* Pasted sections must stay with the first section.  We don't
+        put pasted sections in the array, just the first section.
+        Mark subsequent sections as already considered.  */
+      if (fun->sec->segment_mark)
+       {
+         struct function_info *call_fun = fun;
+         do
+           {
+             for (call = call_fun->call_list; call != NULL; call = call->next)
+               if (call->is_pasted)
+                 {
+                   call_fun = call->fun;
+                   call_fun->sec->gc_mark = 0;
+                   if (call_fun->rodata)
+                     call_fun->rodata->gc_mark = 0;
+                   break;
+                 }
+             if (call == NULL)
+               abort ();
+           }
+         while (call_fun->sec->segment_mark);
+       }
+    }
+
+  for (call = fun->call_list; call != NULL; call = call->next)
+    if (!collect_overlays (call->fun, info, ovly_sections))
+      return FALSE;
+
+  if (added_fun)
+    {
+      struct _spu_elf_section_data *sec_data;
+      struct spu_elf_stack_info *sinfo;
+
+      if ((sec_data = spu_elf_section_data (fun->sec)) != NULL
+         && (sinfo = sec_data->u.i.stack_info) != NULL)
+       {
+         int i;
+         for (i = 0; i < sinfo->num_fun; ++i)
+           if (!collect_overlays (&sinfo->fun[i], info, ovly_sections))
+             return FALSE;
+       }
+    }
+
+  return TRUE;
 }
 
 struct _sum_stack_param {
@@ -2582,23 +3299,28 @@ sum_stack (struct function_info *fun,
   struct function_info *max;
   size_t stack, cum_stack;
   const char *f1;
+  bfd_boolean has_call;
   struct _sum_stack_param *sum_stack_param = param;
+  struct spu_link_hash_table *htab;
 
   cum_stack = fun->stack;
   sum_stack_param->cum_stack = cum_stack;
   if (fun->visit3)
     return TRUE;
 
+  has_call = FALSE;
   max = NULL;
   for (call = fun->call_list; call; call = call->next)
     {
+      if (!call->is_pasted)
+       has_call = TRUE;
       if (!sum_stack (call->fun, info, sum_stack_param))
        return FALSE;
       stack = sum_stack_param->cum_stack;
       /* Include caller stack for normal calls, don't do so for
         tail calls.  fun->stack here is local stack usage for
         this function.  */
-      if (!call->is_tail)
+      if (!call->is_tail || call->is_pasted || call->fun->start != NULL)
        stack += fun->stack;
       if (cum_stack < stack)
        {
@@ -2617,28 +3339,32 @@ sum_stack (struct function_info *fun,
       && sum_stack_param->overall_stack < cum_stack)
     sum_stack_param->overall_stack = cum_stack;
 
+  htab = spu_hash_table (info);
+  if (htab->auto_overlay)
+    return TRUE;
+
   f1 = func_name (fun);
   if (!fun->non_root)
     info->callbacks->info (_("  %s: 0x%v\n"), f1, (bfd_vma) cum_stack);
   info->callbacks->minfo (_("%s: 0x%v 0x%v\n"),
                          f1, (bfd_vma) stack, (bfd_vma) cum_stack);
 
-  if (fun->call_list)
+  if (has_call)
     {
       info->callbacks->minfo (_("  calls:\n"));
       for (call = fun->call_list; call; call = call->next)
-       {
-         const char *f2 = func_name (call->fun);
-         const char *ann1 = call->fun == max ? "*" : " ";
-         const char *ann2 = call->is_tail ? "t" : " ";
+       if (!call->is_pasted)
+         {
+           const char *f2 = func_name (call->fun);
+           const char *ann1 = call->fun == max ? "*" : " ";
+           const char *ann2 = call->is_tail ? "t" : " ";
 
-         info->callbacks->minfo (_("   %s%s %s\n"), ann1, ann2, f2);
-       }
+           info->callbacks->minfo (_("   %s%s %s\n"), ann1, ann2, f2);
+         }
     }
 
   if (sum_stack_param->emit_stack_syms)
     {
-      struct spu_link_hash_table *htab = spu_hash_table (info);
       char *name = bfd_malloc (18 + strlen (f1));
       struct elf_link_hash_entry *h;
 
@@ -2673,6 +3399,453 @@ sum_stack (struct function_info *fun,
   return TRUE;
 }
 
+/* SEC is part of a pasted function.  Return the call_info for the
+   next section of this function.  */
+
+static struct call_info *
+find_pasted_call (asection *sec)
+{
+  struct _spu_elf_section_data *sec_data = spu_elf_section_data (sec);
+  struct spu_elf_stack_info *sinfo = sec_data->u.i.stack_info;
+  struct call_info *call;
+  int k;
+
+  for (k = 0; k < sinfo->num_fun; ++k)
+    for (call = sinfo->fun[k].call_list; call != NULL; call = call->next)
+      if (call->is_pasted)
+       return call;
+  abort ();
+  return 0;
+}
+
+/* qsort predicate to sort bfds by file name.  */
+
+static int
+sort_bfds (const void *a, const void *b)
+{
+  bfd *const *abfd1 = a;
+  bfd *const *abfd2 = b;
+
+  return strcmp ((*abfd1)->filename, (*abfd2)->filename);
+}
+
+/* Handle --auto-overlay.  */
+
+static void spu_elf_auto_overlay (struct bfd_link_info *, void (*) (void))
+     ATTRIBUTE_NORETURN;
+
+static void
+spu_elf_auto_overlay (struct bfd_link_info *info,
+                     void (*spu_elf_load_ovl_mgr) (void))
+{
+  bfd *ibfd;
+  bfd **bfd_arr;
+  struct elf_segment_map *m;
+  unsigned int fixed_size, lo, hi;
+  struct spu_link_hash_table *htab;
+  unsigned int base, i, count, bfd_count;
+  int ovlynum;
+  asection **ovly_sections, **ovly_p;
+  FILE *script;
+  unsigned int total_overlay_size, overlay_size;
+  struct elf_link_hash_entry *h;
+  struct _mos_param mos_param;
+  struct _uos_param uos_param;
+  struct function_info dummy_caller;
+
+  /* Find the extents of our loadable image.  */
+  lo = (unsigned int) -1;
+  hi = 0;
+  for (m = elf_tdata (info->output_bfd)->segment_map; m != NULL; m = m->next)
+    if (m->p_type == PT_LOAD)
+      for (i = 0; i < m->count; i++)
+       if (m->sections[i]->size != 0)
+         {
+           if (m->sections[i]->vma < lo)
+             lo = m->sections[i]->vma;
+           if (m->sections[i]->vma + m->sections[i]->size - 1 > hi)
+             hi = m->sections[i]->vma + m->sections[i]->size - 1;
+         }
+  fixed_size = hi + 1 - lo;
+
+  if (!discover_functions (info))
+    goto err_exit;
+
+  if (!build_call_tree (info))
+    goto err_exit;
+
+  uos_param.exclude_input_section = 0;
+  uos_param.exclude_output_section
+    = bfd_get_section_by_name (info->output_bfd, ".interrupt");
+
+  htab = spu_hash_table (info);
+  h = elf_link_hash_lookup (&htab->elf, "__ovly_load",
+                           FALSE, FALSE, FALSE);
+  if (h != NULL
+      && (h->root.type == bfd_link_hash_defined
+         || h->root.type == bfd_link_hash_defweak)
+      && h->def_regular)
+    {
+      /* We have a user supplied overlay manager.  */
+      uos_param.exclude_input_section = h->root.u.def.section;
+    }
+  else
+    {
+      /* If no user overlay manager, spu_elf_load_ovl_mgr will add our
+        builtin version to .text, and will adjust .text size.  */
+      asection *text = bfd_get_section_by_name (info->output_bfd, ".text");
+      if (text != NULL)
+       fixed_size -= text->size;
+      spu_elf_load_ovl_mgr ();
+      text = bfd_get_section_by_name (info->output_bfd, ".text");
+      if (text != NULL)
+       fixed_size += text->size;
+    }
+
+  /* Mark overlay sections, and find max overlay section size.  */
+  mos_param.max_overlay_size = 0;
+  if (!for_each_node (mark_overlay_section, info, &mos_param, TRUE))
+    goto err_exit;
+
+  /* We can't put the overlay manager or interrupt routines in
+     overlays.  */
+  uos_param.clearing = 0;
+  if ((uos_param.exclude_input_section
+       || uos_param.exclude_output_section)
+      && !for_each_node (unmark_overlay_section, info, &uos_param, TRUE))
+    goto err_exit;
+
+  bfd_count = 0;
+  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+    ++bfd_count;
+  bfd_arr = bfd_malloc (bfd_count * sizeof (*bfd_arr));
+  if (bfd_arr == NULL)
+    goto err_exit;
+
+  /* Count overlay sections, and subtract their sizes from "fixed_size".  */
+  count = 0;
+  bfd_count = 0;
+  total_overlay_size = 0;
+  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+    {
+      extern const bfd_target bfd_elf32_spu_vec;
+      asection *sec;
+      unsigned int old_count;
+
+      if (ibfd->xvec != &bfd_elf32_spu_vec)
+       continue;
+
+      old_count = count;
+      for (sec = ibfd->sections; sec != NULL; sec = sec->next)
+       if (sec->linker_mark)
+         {
+           if ((sec->flags & SEC_CODE) != 0)
+             count += 1;
+           fixed_size -= sec->size;
+           total_overlay_size += sec->size;
+         }
+      if (count != old_count)
+       bfd_arr[bfd_count++] = ibfd;
+    }
+
+  /* Since the overlay link script selects sections by file name and
+     section name, ensure that file names are unique.  */
+  if (bfd_count > 1)
+    {
+      bfd_boolean ok = TRUE;
+
+      qsort (bfd_arr, bfd_count, sizeof (*bfd_arr), sort_bfds);
+      for (i = 1; i < bfd_count; ++i)
+       if (strcmp (bfd_arr[i - 1]->filename, bfd_arr[i]->filename) == 0)
+         {
+           if (bfd_arr[i - 1]->my_archive == bfd_arr[i]->my_archive)
+             {
+               if (bfd_arr[i - 1]->my_archive && bfd_arr[i]->my_archive)
+                 info->callbacks->einfo (_("%s duplicated in %s\n"),
+                                         bfd_arr[i]->filename,
+                                         bfd_arr[i]->my_archive->filename);
+               else
+                 info->callbacks->einfo (_("%s duplicated\n"),
+                                         bfd_arr[i]->filename);
+               ok = FALSE;
+             }
+         }
+      if (!ok)
+       {
+         info->callbacks->einfo (_("sorry, no support for duplicate "
+                                   "object files in auto-overlay script\n"));
+         bfd_set_error (bfd_error_bad_value);
+         goto err_exit;
+       }
+    }
+  free (bfd_arr);
+
+  if (htab->reserved == 0)
+    {
+      struct _sum_stack_param sum_stack_param;
+
+      sum_stack_param.emit_stack_syms = 0;
+      sum_stack_param.overall_stack = 0;
+      if (!for_each_node (sum_stack, info, &sum_stack_param, TRUE))
+       goto err_exit;
+      htab->reserved = sum_stack_param.overall_stack + htab->extra_stack_space;
+    }
+  fixed_size += htab->reserved;
+  fixed_size += htab->non_ovly_stub * OVL_STUB_SIZE;
+  if (fixed_size + mos_param.max_overlay_size <= htab->local_store)
+    {
+      /* Guess number of overlays.  Assuming overlay buffer is on
+        average only half full should be conservative.  */
+      ovlynum = total_overlay_size * 2 / (htab->local_store - fixed_size);
+      /* Space for _ovly_table[], _ovly_buf_table[] and toe.  */
+      fixed_size += ovlynum * 16 + 16 + 4 + 16;
+    }
+
+  if (fixed_size + mos_param.max_overlay_size > htab->local_store)
+    info->callbacks->einfo (_("non-overlay size of 0x%v plus maximum overlay "
+                             "size of 0x%v exceeds local store\n"),
+                           (bfd_vma) fixed_size,
+                           (bfd_vma) mos_param.max_overlay_size);
+
+  /* Now see if we should put some functions in the non-overlay area.  */
+  else if (fixed_size < htab->overlay_fixed)
+    {
+      unsigned int max_fixed, lib_size;
+
+      max_fixed = htab->local_store - mos_param.max_overlay_size;
+      if (max_fixed > htab->overlay_fixed)
+       max_fixed = htab->overlay_fixed;
+      lib_size = max_fixed - fixed_size;
+      lib_size = auto_ovl_lib_functions (info, lib_size);
+      if (lib_size == (unsigned int) -1)
+       goto err_exit;
+      fixed_size = max_fixed - lib_size;
+    }
+
+  /* Build an array of sections, suitably sorted to place into
+     overlays.  */
+  ovly_sections = bfd_malloc (2 * count * sizeof (*ovly_sections));
+  if (ovly_sections == NULL)
+    goto err_exit;
+  ovly_p = ovly_sections;
+  if (!for_each_node (collect_overlays, info, &ovly_p, TRUE))
+    goto err_exit;
+  count = (size_t) (ovly_p - ovly_sections) / 2;
+
+  script = htab->spu_elf_open_overlay_script ();
+
+  if (fprintf (script, "SECTIONS\n{\n OVERLAY :\n {\n") <= 0)
+    goto file_err;
+
+  memset (&dummy_caller, 0, sizeof (dummy_caller));
+  overlay_size = htab->local_store - fixed_size;
+  base = 0;
+  ovlynum = 0;
+  while (base < count)
+    {
+      unsigned int size = 0;
+      unsigned int j;
+
+      for (i = base; i < count; i++)
+       {
+         asection *sec;
+         unsigned int tmp;
+         unsigned int stub_size;
+         struct call_info *call, *pasty;
+         struct _spu_elf_section_data *sec_data;
+         struct spu_elf_stack_info *sinfo;
+         int k;
+
+         /* See whether we can add this section to the current
+            overlay without overflowing our overlay buffer.  */
+         sec = ovly_sections[2 * i];
+         tmp = size + sec->size;
+         if (ovly_sections[2 * i + 1])
+           tmp += ovly_sections[2 * i + 1]->size;
+         if (tmp > overlay_size)
+           break;
+         if (sec->segment_mark)
+           {
+             /* Pasted sections must stay together, so add their
+                sizes too.  */
+             struct call_info *pasty = find_pasted_call (sec);
+             while (pasty != NULL)
+               {
+                 struct function_info *call_fun = pasty->fun;
+                 tmp += call_fun->sec->size;
+                 if (call_fun->rodata)
+                   tmp += call_fun->rodata->size;
+                 for (pasty = call_fun->call_list; pasty; pasty = pasty->next)
+                   if (pasty->is_pasted)
+                     break;
+               }
+           }
+         if (tmp > overlay_size)
+           break;
+
+         /* If we add this section, we might need new overlay call
+            stubs.  Add any overlay section calls to dummy_call.  */
+         pasty = NULL;
+         sec_data = spu_elf_section_data (sec);
+         sinfo = sec_data->u.i.stack_info;
+         for (k = 0; k < sinfo->num_fun; ++k)
+           for (call = sinfo->fun[k].call_list; call; call = call->next)
+             if (call->is_pasted)
+               {
+                 BFD_ASSERT (pasty == NULL);
+                 pasty = call;
+               }
+             else if (call->fun->sec->linker_mark)
+               {
+                 if (!copy_callee (&dummy_caller, call))
+                   goto err_exit;
+               }
+         while (pasty != NULL)
+           {
+             struct function_info *call_fun = pasty->fun;
+             pasty = NULL;
+             for (call = call_fun->call_list; call; call = call->next)
+               if (call->is_pasted)
+                 {
+                   BFD_ASSERT (pasty == NULL);
+                   pasty = call;
+                 }
+               else if (!copy_callee (&dummy_caller, call))
+                 goto err_exit;
+           }
+
+         /* Calculate call stub size.  */
+         stub_size = 0;
+         for (call = dummy_caller.call_list; call; call = call->next)
+           {
+             unsigned int k;
+
+             stub_size += OVL_STUB_SIZE;
+             /* If the call is within this overlay, we won't need a
+                stub.  */
+             for (k = base; k < i + 1; k++)
+               if (call->fun->sec == ovly_sections[2 * k])
+                 {
+                   stub_size -= OVL_STUB_SIZE;
+                   break;
+                 }
+           }
+         if (tmp + stub_size > overlay_size)
+           break;
+         
+         size = tmp;
+       }
+
+      if (i == base)
+       {
+         info->callbacks->einfo (_("%B:%A%s exceeds overlay size\n"),
+                                 ovly_sections[2 * i]->owner,
+                                 ovly_sections[2 * i],
+                                 ovly_sections[2 * i + 1] ? " + rodata" : "");
+         bfd_set_error (bfd_error_bad_value);
+         goto err_exit;
+       }
+
+      if (fprintf (script, "  .ovly%d {\n", ++ovlynum) <= 0)
+       goto file_err;
+      for (j = base; j < i; j++)
+       {
+         asection *sec = ovly_sections[2 * j];
+
+         if (fprintf (script, "   %s%c%s (%s)\n",
+                      (sec->owner->my_archive != NULL
+                       ? sec->owner->my_archive->filename : ""),
+                      info->path_separator,
+                      sec->owner->filename,
+                      sec->name) <= 0)
+           goto file_err;
+         if (sec->segment_mark)
+           {
+             struct call_info *call = find_pasted_call (sec);
+             while (call != NULL)
+               {
+                 struct function_info *call_fun = call->fun;
+                 sec = call_fun->sec;
+                 if (fprintf (script, "   %s%c%s (%s)\n",
+                              (sec->owner->my_archive != NULL
+                               ? sec->owner->my_archive->filename : ""),
+                              info->path_separator,
+                              sec->owner->filename,
+                              sec->name) <= 0)
+                   goto file_err;
+                 for (call = call_fun->call_list; call; call = call->next)
+                   if (call->is_pasted)
+                     break;
+               }
+           }
+       }
+
+      for (j = base; j < i; j++)
+       {
+         asection *sec = ovly_sections[2 * j + 1];
+         if (sec != NULL
+             && fprintf (script, "   %s%c%s (%s)\n",
+                         (sec->owner->my_archive != NULL
+                          ? sec->owner->my_archive->filename : ""),
+                         info->path_separator,
+                         sec->owner->filename,
+                         sec->name) <= 0)
+           goto file_err;
+
+         sec = ovly_sections[2 * j];
+         if (sec->segment_mark)
+           {
+             struct call_info *call = find_pasted_call (sec);
+             while (call != NULL)
+               {
+                 struct function_info *call_fun = call->fun;
+                 sec = call_fun->rodata;
+                 if (sec != NULL
+                     && fprintf (script, "   %s%c%s (%s)\n",
+                                 (sec->owner->my_archive != NULL
+                                  ? sec->owner->my_archive->filename : ""),
+                                 info->path_separator,
+                                 sec->owner->filename,
+                                 sec->name) <= 0)
+                   goto file_err;
+                 for (call = call_fun->call_list; call; call = call->next)
+                   if (call->is_pasted)
+                     break;
+               }
+           }
+       }
+
+      if (fprintf (script, "  }\n") <= 0)
+       goto file_err;
+
+      while (dummy_caller.call_list != NULL)
+       {
+         struct call_info *call = dummy_caller.call_list;
+         dummy_caller.call_list = call->next;
+         free (call);
+       }
+
+      base = i;
+    }
+  free (ovly_sections);
+
+  if (fprintf (script, " }\n}\nINSERT AFTER .text;\n") <= 0)
+    goto file_err;
+  if (fclose (script) != 0)
+    goto file_err;
+
+  if (htab->auto_overlay & AUTO_RELINK)
+    htab->spu_elf_relink ();
+
+  xexit (0);
+
+ file_err:
+  bfd_set_error (bfd_error_system_call);
+ err_exit:
+  info->callbacks->einfo ("%F%P: auto overlay error: %E\n");
+  xexit (1);
+}
+
 /* Provide an estimate of total stack required.  */
 
 static bfd_boolean
@@ -2707,6 +3880,9 @@ spu_elf_final_link (bfd *output_bfd, struct bfd_link_info *info)
 {
   struct spu_link_hash_table *htab = spu_hash_table (info);
 
+  if (htab->auto_overlay)
+    spu_elf_auto_overlay (info, htab->spu_elf_load_ovl_mgr);
+
   if (htab->stack_analysis
       && !spu_elf_stack_analysis (info, htab->emit_stack_syms))
     info->callbacks->einfo ("%X%P: stack analysis error: %E\n");
@@ -2750,8 +3926,10 @@ spu_elf_relocate_section (bfd *output_bfd,
   struct elf_link_hash_entry **sym_hashes;
   Elf_Internal_Rela *rel, *relend;
   struct spu_link_hash_table *htab;
+  asection *ea = bfd_get_section_by_name (output_bfd, "._ea");
   int ret = TRUE;
   bfd_boolean emit_these_relocs = FALSE;
+  bfd_boolean is_ea_sym;
   bfd_boolean stubs;
 
   htab = spu_hash_table (info);
@@ -2766,7 +3944,7 @@ spu_elf_relocate_section (bfd *output_bfd,
     {
       int r_type;
       reloc_howto_type *howto;
-      unsigned long r_symndx;
+      unsigned int r_symndx;
       Elf_Internal_Sym *sym;
       asection *sec;
       struct elf_link_hash_entry *h;
@@ -2776,15 +3954,10 @@ spu_elf_relocate_section (bfd *output_bfd,
       bfd_reloc_status_type r;
       bfd_boolean unresolved_reloc;
       bfd_boolean warned;
+      enum _stub_type stub_type;
 
       r_symndx = ELF32_R_SYM (rel->r_info);
       r_type = ELF32_R_TYPE (rel->r_info);
-      if (r_type == R_SPU_PPU32 || r_type == R_SPU_PPU64)
-       {
-         emit_these_relocs = TRUE;
-         continue;
-       }
-
       howto = elf_howto_table + r_type;
       unresolved_reloc = FALSE;
       warned = FALSE;
@@ -2800,10 +3973,51 @@ spu_elf_relocate_section (bfd *output_bfd,
        }
       else
        {
-         RELOC_FOR_GLOBAL_SYMBOL (info, input_bfd, input_section, rel,
-                                  r_symndx, symtab_hdr, sym_hashes,
-                                  h, sec, relocation,
-                                  unresolved_reloc, warned);
+         if (sym_hashes == NULL)
+           return FALSE;
+
+         h = sym_hashes[r_symndx - symtab_hdr->sh_info];
+
+         while (h->root.type == bfd_link_hash_indirect
+                || h->root.type == bfd_link_hash_warning)
+           h = (struct elf_link_hash_entry *) h->root.u.i.link;
+
+         relocation = 0;
+         if (h->root.type == bfd_link_hash_defined
+             || h->root.type == bfd_link_hash_defweak)
+           {
+             sec = h->root.u.def.section;
+             if (sec == NULL
+                 || sec->output_section == NULL)
+               /* Set a flag that will be cleared later if we find a
+                  relocation value for this symbol.  output_section
+                  is typically NULL for symbols satisfied by a shared
+                  library.  */
+               unresolved_reloc = TRUE;
+             else
+               relocation = (h->root.u.def.value
+                             + sec->output_section->vma
+                             + sec->output_offset);
+           }
+         else if (h->root.type == bfd_link_hash_undefweak)
+           ;
+         else if (info->unresolved_syms_in_objects == RM_IGNORE
+                  && ELF_ST_VISIBILITY (h->other) == STV_DEFAULT)
+           ;
+         else if (!info->relocatable
+                  && !(r_type == R_SPU_PPU32 || r_type == R_SPU_PPU64))
+           {
+             bfd_boolean err;
+             err = (info->unresolved_syms_in_objects == RM_GENERATE_ERROR
+                    || ELF_ST_VISIBILITY (h->other) != STV_DEFAULT);
+             if (!info->callbacks->undefined_symbol (info,
+                                                     h->root.root.string,
+                                                     input_bfd,
+                                                     input_section,
+                                                     rel->r_offset, err))
+               return FALSE;
+             warned = TRUE;
+           }
          sym_name = h->root.root.string;
        }
 
@@ -2821,6 +4035,32 @@ spu_elf_relocate_section (bfd *output_bfd,
       if (info->relocatable)
        continue;
 
+      is_ea_sym = (ea != NULL
+                  && sec != NULL
+                  && sec->output_section == ea);
+
+      if (r_type == R_SPU_PPU32 || r_type == R_SPU_PPU64)
+       {
+         if (is_ea_sym)
+           {
+             /* ._ea is a special section that isn't allocated in SPU
+                memory, but rather occupies space in PPU memory as
+                part of an embedded ELF image.  If this reloc is
+                against a symbol defined in ._ea, then transform the
+                reloc into an equivalent one without a symbol
+                relative to the start of the ELF image.  */
+             rel->r_addend += (relocation
+                               - ea->vma
+                               + elf_section_data (ea)->this_hdr.sh_offset);
+             rel->r_info = ELF32_R_INFO (0, r_type);
+           }
+         emit_these_relocs = TRUE;
+         continue;
+       }
+
+      if (is_ea_sym)
+       unresolved_reloc = TRUE;
+
       if (unresolved_reloc)
        {
          (*_bfd_error_handler)
@@ -2836,35 +4076,30 @@ spu_elf_relocate_section (bfd *output_bfd,
       /* If this symbol is in an overlay area, we may need to relocate
         to the overlay stub.  */
       addend = rel->r_addend;
-      if (stubs)
+      if (stubs
+         && (stub_type = needs_ovl_stub (h, sym, sec, input_section, rel,
+                                         contents, info)) != no_stub)
        {
-         enum _stub_type stub_type;
-
-         stub_type = needs_ovl_stub (h, sym, sec, input_section, rel,
-                                     contents, info);
-         if (stub_type != no_stub)
-           {
-             unsigned int ovl = 0;
-             struct got_entry *g, **head;
+         unsigned int ovl = 0;
+         struct got_entry *g, **head;
 
-             if (stub_type != nonovl_stub)
-               ovl = (spu_elf_section_data (input_section->output_section)
-                      ->u.o.ovl_index);
+         if (stub_type != nonovl_stub)
+           ovl = (spu_elf_section_data (input_section->output_section)
+                  ->u.o.ovl_index);
 
-             if (h != NULL)
-               head = &h->got.glist;
-             else
-               head = elf_local_got_ents (input_bfd) + r_symndx;
+         if (h != NULL)
+           head = &h->got.glist;
+         else
+           head = elf_local_got_ents (input_bfd) + r_symndx;
 
-             for (g = *head; g != NULL; g = g->next)
-               if (g->addend == addend && (g->ovl == ovl || g->ovl == 0))
-                 break;
-             if (g == NULL)
-               abort ();
+         for (g = *head; g != NULL; g = g->next)
+           if (g->addend == addend && (g->ovl == ovl || g->ovl == 0))
+             break;
+         if (g == NULL)
+           abort ();
 
-             relocation = g->stub_addr;
-             addend = 0;
-           }
+         relocation = g->stub_addr;
+         addend = 0;
        }
 
       r = _bfd_final_link_relocate (howto,
@@ -2922,7 +4157,6 @@ spu_elf_relocate_section (bfd *output_bfd,
 
   if (ret
       && emit_these_relocs
-      && !info->relocatable
       && !info->emitrelocations)
     {
       Elf_Internal_Rela *wrel;
@@ -3197,6 +4431,7 @@ spu_elf_modify_program_headers (bfd *abfd, struct bfd_link_info *info)
 #define elf_backend_relocate_section           spu_elf_relocate_section
 #define elf_backend_symbol_processing          spu_elf_backend_symbol_processing
 #define elf_backend_link_output_symbol_hook    spu_elf_output_symbol_hook
+#define elf_backend_object_p                   spu_elf_object_p
 #define bfd_elf32_new_section_hook             spu_elf_new_section_hook
 #define bfd_elf32_bfd_link_hash_table_create   spu_elf_link_hash_table_create
 
This page took 0.045023 seconds and 4 git commands to generate.