gdb/
[deliverable/binutils-gdb.git] / gdb / arm-tdep.c
index 5247de88b388bd45faf59a01460e61df2c9b32a6..18204514a05a7c147a6e8fac2ea78949f34ff65d 100644 (file)
@@ -1,8 +1,7 @@
 /* Common target dependent code for GDB on ARM systems.
 
-   Copyright (C) 1988, 1989, 1991, 1992, 1993, 1995, 1996, 1998, 1999, 2000,
-   2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010
-   Free Software Foundation, Inc.
+   Copyright (C) 1988-1989, 1991-1993, 1995-1996, 1998-2012 Free
+   Software Foundation, Inc.
 
    This file is part of GDB.
 
@@ -19,7 +18,7 @@
    You should have received a copy of the GNU General Public License
    along with this program.  If not, see <http://www.gnu.org/licenses/>.  */
 
-#include <ctype.h>             /* XXX for isupper () */
+#include <ctype.h>             /* XXX for isupper () */
 
 #include "defs.h"
 #include "frame.h"
@@ -27,7 +26,7 @@
 #include "gdbcmd.h"
 #include "gdbcore.h"
 #include "gdb_string.h"
-#include "dis-asm.h"           /* For register styles. */
+#include "dis-asm.h"           /* For register styles.  */
 #include "regcache.h"
 #include "reggroups.h"
 #include "doublest.h"
@@ -43,6 +42,7 @@
 #include "prologue-value.h"
 #include "target-descriptions.h"
 #include "user-regs.h"
+#include "observer.h"
 
 #include "arm-tdep.h"
 #include "gdb/sim-arm.h"
 #include "vec.h"
 
 #include "features/arm-with-m.c"
+#include "features/arm-with-iwmmxt.c"
+#include "features/arm-with-vfpv2.c"
+#include "features/arm-with-vfpv3.c"
+#include "features/arm-with-neon.c"
 
 static int arm_debug;
 
@@ -65,7 +69,7 @@ static int arm_debug;
    MSYMBOL_SET_SPECIAL Actually sets the "special" bit.
    MSYMBOL_IS_SPECIAL   Tests the "special" bit in a minimal symbol.  */
 
-#define MSYMBOL_SET_SPECIAL(msym)                                      \
+#define MSYMBOL_SET_SPECIAL(msym)                              \
        MSYMBOL_TARGET_FLAG_1 (msym) = 1
 
 #define MSYMBOL_IS_SPECIAL(msym)                               \
@@ -132,6 +136,13 @@ static const char *arm_mode_strings[] =
 static const char *arm_fallback_mode_string = "auto";
 static const char *arm_force_mode_string = "auto";
 
+/* Internal override of the execution mode.  -1 means no override,
+   0 means override to ARM mode, 1 means override to Thumb mode.
+   The effect is the same as if arm_force_mode has been set by the
+   user (except the internal override has precedence over a user's
+   arm_force_mode override).  */
+static int arm_override_mode = -1;
+
 /* Number of different reg name sets (options).  */
 static int num_disassembly_options;
 
@@ -212,13 +223,15 @@ static void convert_from_extended (const struct floatformat *, const void *,
 static void convert_to_extended (const struct floatformat *, void *,
                                 const void *, int);
 
-static void arm_neon_quad_read (struct gdbarch *gdbarch,
-                               struct regcache *regcache,
-                               int regnum, gdb_byte *buf);
+static enum register_status arm_neon_quad_read (struct gdbarch *gdbarch,
+                                               struct regcache *regcache,
+                                               int regnum, gdb_byte *buf);
 static void arm_neon_quad_write (struct gdbarch *gdbarch,
                                 struct regcache *regcache,
                                 int regnum, const gdb_byte *buf);
 
+static int thumb_insn_size (unsigned short inst1);
+
 struct arm_prologue_cache
 {
   /* The stack pointer at the time this frame was created; i.e. the
@@ -261,7 +274,7 @@ int arm_apcs_32 = 1;
 
 /* Return the bit mask in ARM_PS_REGNUM that indicates Thumb mode.  */
 
-static int
+int
 arm_psr_thumb_bit (struct gdbarch *gdbarch)
 {
   if (gdbarch_tdep (gdbarch)->is_m)
@@ -355,24 +368,39 @@ arm_find_mapping_symbol (CORE_ADDR memaddr, CORE_ADDR *start)
   return 0;
 }
 
-static CORE_ADDR arm_get_next_pc_raw (struct frame_info *frame, 
-                                     CORE_ADDR pc, int insert_bkpt);
-
 /* Determine if the program counter specified in MEMADDR is in a Thumb
    function.  This function should be called for addresses unrelated to
    any executing frame; otherwise, prefer arm_frame_is_thumb.  */
 
-static int
+int
 arm_pc_is_thumb (struct gdbarch *gdbarch, CORE_ADDR memaddr)
 {
   struct obj_section *sec;
   struct minimal_symbol *sym;
   char type;
+  struct displaced_step_closure* dsc
+    = get_displaced_step_closure_by_addr(memaddr);
+
+  /* If checking the mode of displaced instruction in copy area, the mode
+     should be determined by instruction on the original address.  */
+  if (dsc)
+    {
+      if (debug_displaced)
+       fprintf_unfiltered (gdb_stdlog,
+                           "displaced: check mode of %.8lx instead of %.8lx\n",
+                           (unsigned long) dsc->insn_addr,
+                           (unsigned long) memaddr);
+      memaddr = dsc->insn_addr;
+    }
 
   /* If bit 0 of the address is set, assume this is a Thumb address.  */
   if (IS_THUMB_ADDR (memaddr))
     return 1;
 
+  /* Respect internal mode override if active.  */
+  if (arm_override_mode != -1)
+    return arm_override_mode;
+
   /* If the user wants to override the symbol table, let him.  */
   if (strcmp (arm_force_mode_string, "arm") == 0)
     return 0;
@@ -403,29 +431,9 @@ arm_pc_is_thumb (struct gdbarch *gdbarch, CORE_ADDR memaddr)
      target, then trust the current value of $cpsr.  This lets
      "display/i $pc" always show the correct mode (though if there is
      a symbol table we will not reach here, so it still may not be
-     displayed in the mode it will be executed).  
-   
-     As a further heuristic if we detect that we are doing a single-step we
-     see what state executing the current instruction ends up with us being
-     in.  */
+     displayed in the mode it will be executed).  */
   if (target_has_registers)
-    {
-      struct frame_info *current_frame = get_current_frame ();
-      CORE_ADDR current_pc = get_frame_pc (current_frame);
-      int is_thumb = arm_frame_is_thumb (current_frame);
-      CORE_ADDR next_pc;
-      if (memaddr == current_pc)
-       return is_thumb;
-      else
-       {
-         struct gdbarch *gdbarch = get_frame_arch (current_frame);
-         next_pc = arm_get_next_pc_raw (current_frame, current_pc, FALSE);
-         if (memaddr == gdbarch_addr_bits_remove (gdbarch, next_pc))
-           return IS_THUMB_ADDR (next_pc);
-         else
-           return is_thumb;
-       }
-    }
+    return arm_frame_is_thumb (get_current_frame ());
 
   /* Otherwise we're out of luck; we assume ARM.  */
   return 0;
@@ -450,39 +458,55 @@ arm_smash_text_address (struct gdbarch *gdbarch, CORE_ADDR val)
 }
 
 /* Return 1 if PC is the start of a compiler helper function which
-   can be safely ignored during prologue skipping.  */
+   can be safely ignored during prologue skipping.  IS_THUMB is true
+   if the function is known to be a Thumb function due to the way it
+   is being called.  */
 static int
-skip_prologue_function (CORE_ADDR pc)
+skip_prologue_function (struct gdbarch *gdbarch, CORE_ADDR pc, int is_thumb)
 {
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
   struct minimal_symbol *msym;
-  const char *name;
 
   msym = lookup_minimal_symbol_by_pc (pc);
-  if (msym == NULL || SYMBOL_VALUE_ADDRESS (msym) != pc)
-    return 0;
+  if (msym != NULL
+      && SYMBOL_VALUE_ADDRESS (msym) == pc
+      && SYMBOL_LINKAGE_NAME (msym) != NULL)
+    {
+      const char *name = SYMBOL_LINKAGE_NAME (msym);
 
-  name = SYMBOL_LINKAGE_NAME (msym);
-  if (name == NULL)
-    return 0;
+      /* The GNU linker's Thumb call stub to foo is named
+        __foo_from_thumb.  */
+      if (strstr (name, "_from_thumb") != NULL)
+       name += 2;
 
-  /* The GNU linker's Thumb call stub to foo is named
-     __foo_from_thumb.  */
-  if (strstr (name, "_from_thumb") != NULL)
-    name += 2;
+      /* On soft-float targets, __truncdfsf2 is called to convert promoted
+        arguments to their argument types in non-prototyped
+        functions.  */
+      if (strncmp (name, "__truncdfsf2", strlen ("__truncdfsf2")) == 0)
+       return 1;
+      if (strncmp (name, "__aeabi_d2f", strlen ("__aeabi_d2f")) == 0)
+       return 1;
 
-  /* On soft-float targets, __truncdfsf2 is called to convert promoted
-     arguments to their argument types in non-prototyped
-     functions.  */
-  if (strncmp (name, "__truncdfsf2", strlen ("__truncdfsf2")) == 0)
-    return 1;
-  if (strncmp (name, "__aeabi_d2f", strlen ("__aeabi_d2f")) == 0)
-    return 1;
+      /* Internal functions related to thread-local storage.  */
+      if (strncmp (name, "__tls_get_addr", strlen ("__tls_get_addr")) == 0)
+       return 1;
+      if (strncmp (name, "__aeabi_read_tp", strlen ("__aeabi_read_tp")) == 0)
+       return 1;
+    }
+  else
+    {
+      /* If we run against a stripped glibc, we may be unable to identify
+        special functions by name.  Check for one important case,
+        __aeabi_read_tp, by comparing the *code* against the default
+        implementation (this is hand-written ARM assembler in glibc).  */
 
-  /* Internal functions related to thread-local storage.  */
-  if (strncmp (name, "__tls_get_addr", strlen ("__tls_get_addr")) == 0)
-    return 1;
-  if (strncmp (name, "__aeabi_read_tp", strlen ("__aeabi_read_tp")) == 0)
-    return 1;
+      if (!is_thumb
+         && read_memory_unsigned_integer (pc, 4, byte_order_for_code)
+            == 0xe3e00a0f /* mov r0, #0xffff0fff */
+         && read_memory_unsigned_integer (pc + 4, 4, byte_order_for_code)
+            == 0xe240f01f) /* sub pc, r0, #31 */
+       return 1;
+    }
 
   return 0;
 }
@@ -813,7 +837,7 @@ thumb_analyze_prologue (struct gdbarch *gdbarch,
          constant = read_memory_unsigned_integer (loc, 4, byte_order);
          regs[bits (insn, 8, 10)] = pv_constant (constant);
        }
-      else if ((insn & 0xe000) == 0xe000)
+      else if (thumb_insn_size (insn) == 4) /* 32-bit Thumb-2 instructions.  */
        {
          unsigned short inst2;
 
@@ -841,11 +865,13 @@ thumb_analyze_prologue (struct gdbarch *gdbarch,
              if (bit (inst2, 12) == 0)
                nextpc = nextpc & 0xfffffffc;
 
-             if (!skip_prologue_function (nextpc))
+             if (!skip_prologue_function (gdbarch, nextpc,
+                                          bit (inst2, 12) != 0))
                break;
            }
 
-         else if ((insn & 0xffd0) == 0xe900    /* stmdb Rn{!}, { registers } */
+         else if ((insn & 0xffd0) == 0xe900    /* stmdb Rn{!},
+                                                  { registers } */
                   && pv_is_register (regs[bits (insn, 0, 3)], ARM_SP_REGNUM))
            {
              pv_t addr = regs[bits (insn, 0, 3)];
@@ -866,7 +892,8 @@ thumb_analyze_prologue (struct gdbarch *gdbarch,
                regs[bits (insn, 0, 3)] = addr;
            }
 
-         else if ((insn & 0xff50) == 0xe940    /* strd Rt, Rt2, [Rn, #+/-imm]{!} */
+         else if ((insn & 0xff50) == 0xe940    /* strd Rt, Rt2,
+                                                  [Rn, #+/-imm]{!} */
                   && pv_is_register (regs[bits (insn, 0, 3)], ARM_SP_REGNUM))
            {
              int regno1 = bits (inst2, 12, 15);
@@ -938,14 +965,16 @@ thumb_analyze_prologue (struct gdbarch *gdbarch,
            /* Ignore stores of argument registers to the stack.  */
            ;
 
-         else if ((insn & 0xffd0) == 0xe890    /* ldmia Rn[!], { registers } */
+         else if ((insn & 0xffd0) == 0xe890    /* ldmia Rn[!],
+                                                  { registers } */
                   && (inst2 & 0x8000) == 0x0000
                   && pv_is_register (regs[bits (insn, 0, 3)], ARM_SP_REGNUM))
            /* Ignore block loads from the stack, potentially copying
               parameters from memory.  */
            ;
 
-         else if ((insn & 0xffb0) == 0xe950    /* ldrd Rt, Rt2, [Rn, #+/-imm] */
+         else if ((insn & 0xffb0) == 0xe950    /* ldrd Rt, Rt2,
+                                                  [Rn, #+/-imm] */
                   && pv_is_register (regs[bits (insn, 0, 3)], ARM_SP_REGNUM))
            /* Similarly ignore dual loads from the stack.  */
            ;
@@ -1122,18 +1151,12 @@ thumb_analyze_prologue (struct gdbarch *gdbarch,
       cache->framereg = THUMB_FP_REGNUM;
       cache->framesize = -regs[THUMB_FP_REGNUM].k;
     }
-  else if (pv_is_register (regs[ARM_SP_REGNUM], ARM_SP_REGNUM))
+  else
     {
       /* Try the stack pointer... this is a bit desperate.  */
       cache->framereg = ARM_SP_REGNUM;
       cache->framesize = -regs[ARM_SP_REGNUM].k;
     }
-  else
-    {
-      /* We're just out of luck.  We don't know where the frame is.  */
-      cache->framereg = -1;
-      cache->framesize = 0;
-    }
 
   for (i = 0; i < 16; i++)
     if (pv_area_find_reg (stack, gdbarch, i, &offset))
@@ -1194,37 +1217,38 @@ arm_analyze_load_stack_chk_guard(CORE_ADDR pc, struct gdbarch *gdbarch,
     }
   else
     {
-       unsigned int insn
-        = read_memory_unsigned_integer (pc, 4, byte_order_for_code);
-
-       if ((insn & 0x0e5f0000) == 0x041f0000) /* ldr Rd, #immed */
-        {
-          address = bits (insn, 0, 11);
-          *destreg = bits (insn, 12, 15);
-          *offset = 4;
-        }
-       else if ((insn & 0x0ff00000) == 0x03000000) /* movw Rd, #const */
-        {
-          low = EXTRACT_MOVW_MOVT_IMM_A (insn);
+      unsigned int insn
+       = read_memory_unsigned_integer (pc, 4, byte_order_for_code);
 
-          insn
-            = read_memory_unsigned_integer (pc + 4, 4, byte_order_for_code);
+      if ((insn & 0x0e5f0000) == 0x041f0000) /* ldr Rd, #immed */
+       {
+         address = bits (insn, 0, 11);
+         *destreg = bits (insn, 12, 15);
+         *offset = 4;
+       }
+      else if ((insn & 0x0ff00000) == 0x03000000) /* movw Rd, #const */
+       {
+         low = EXTRACT_MOVW_MOVT_IMM_A (insn);
 
-          if ((insn & 0x0ff00000) == 0x03400000)       /* movt Rd, #const */
-            high = EXTRACT_MOVW_MOVT_IMM_A (insn);
+         insn
+           = read_memory_unsigned_integer (pc + 4, 4, byte_order_for_code);
 
-          address = (high << 16 | low);
-          *destreg = bits (insn, 12, 15);
-          *offset = 8;
-        }
+         if ((insn & 0x0ff00000) == 0x03400000) /* movt Rd, #const */
+           {
+             high = EXTRACT_MOVW_MOVT_IMM_A (insn);
+             *destreg = bits (insn, 12, 15);
+             *offset = 8;
+             address = (high << 16 | low);
+           }
+       }
     }
 
   return address;
 }
 
 /* Try to skip a sequence of instructions used for stack protector.  If PC
-   points to the first instruction of this sequence, return the address of first
-   instruction after this sequence, otherwise, return original PC.
+   points to the first instruction of this sequence, return the address of
+   first instruction after this sequence, otherwise, return original PC.
 
    On arm, this sequence of instructions is composed of mainly three steps,
      Step 1: load symbol __stack_chk_guard,
@@ -1273,7 +1297,8 @@ arm_skip_stack_protector(CORE_ADDR pc, struct gdbarch *gdbarch)
      instruction sequence is not for stack protector.  If symbol is
      removed, we conservatively think this sequence is for stack protector.  */
   if (stack_chk_guard
-      && strcmp (SYMBOL_LINKAGE_NAME(stack_chk_guard), "__stack_chk_guard"))
+      && strncmp (SYMBOL_LINKAGE_NAME (stack_chk_guard), "__stack_chk_guard",
+                 strlen ("__stack_chk_guard")) != 0)
    return pc;
 
   if (is_thumb)
@@ -1338,7 +1363,7 @@ arm_skip_stack_protector(CORE_ADDR pc, struct gdbarch *gdbarch)
    [stfe        f6, [sp, #-12]!]
    [stfe        f5, [sp, #-12]!]
    [stfe        f4, [sp, #-12]!]
-   sub fp, ip, #nn @@ nn == 20 or 4 depending on second insn */
+   sub fp, ip, #nn @@ nn == 20 or 4 depending on second insn */
 
 static CORE_ADDR
 arm_skip_prologue (struct gdbarch *gdbarch, CORE_ADDR pc)
@@ -1408,7 +1433,7 @@ arm_skip_prologue (struct gdbarch *gdbarch, CORE_ADDR pc)
   /* Find an upper limit on the function prologue using the debug
      information.  If the debug information could not be used to provide
      that bound, then use an arbitrary large number as the upper bound.  */
-  /* Like arm_scan_prologue, stop no later than pc + 64. */
+  /* Like arm_scan_prologue, stop no later than pc + 64.  */
   limit_pc = skip_prologue_using_sal (gdbarch, pc);
   if (limit_pc == 0)
     limit_pc = pc + 64;          /* Magic.  */
@@ -1475,7 +1500,7 @@ arm_skip_prologue (struct gdbarch *gdbarch, CORE_ADDR pc)
       break;
     }
 
-  return skip_pc;              /* End of prologue */
+  return skip_pc;              /* End of prologue */
 }
 
 /* *INDENT-OFF* */
@@ -1494,7 +1519,7 @@ arm_skip_prologue (struct gdbarch *gdbarch, CORE_ADDR pc)
      R7 ->       0  local variables (16 bytes)
      SP ->     -12  additional stack space (12 bytes)
    The frame size would thus be 36 bytes, and the frame offset would be
-   12 bytes.  The frame register is R7. 
+   12 bytes.  The frame register is R7.
    
    The comments for thumb_skip_prolog() describe the algorithm we use
    to detect the end of the prolog.  */
@@ -1616,7 +1641,7 @@ arm_instruction_changes_pc (uint32_t this_instr)
        return 0;
 
       default:
-       internal_error (__FILE__, __LINE__, "bad value in switch");
+       internal_error (__FILE__, __LINE__, _("bad value in switch"));
       }
 }
 
@@ -1692,7 +1717,8 @@ arm_analyze_prologue (struct gdbarch *gdbarch,
          regs[rd] = pv_add_constant (regs[bits (insn, 16, 19)], -imm);
          continue;
        }
-      else if ((insn & 0xffff0fff) == 0xe52d0004)      /* str Rd, [sp, #-4]! */
+      else if ((insn & 0xffff0fff) == 0xe52d0004)      /* str Rd,
+                                                          [sp, #-4]! */
        {
          if (pv_area_store_would_trash (stack, regs[ARM_SP_REGNUM]))
            break;
@@ -1715,7 +1741,8 @@ arm_analyze_prologue (struct gdbarch *gdbarch,
          for (regno = ARM_PC_REGNUM; regno >= 0; regno--)
            if (mask & (1 << regno))
              {
-               regs[ARM_SP_REGNUM] = pv_add_constant (regs[ARM_SP_REGNUM], -4);
+               regs[ARM_SP_REGNUM]
+                 = pv_add_constant (regs[ARM_SP_REGNUM], -4);
                pv_area_store (stack, regs[ARM_SP_REGNUM], 4, regs[regno]);
              }
        }
@@ -1733,7 +1760,8 @@ arm_analyze_prologue (struct gdbarch *gdbarch,
          /* No need to add this to saved_regs -- it's just an arg reg.  */
          continue;
        }
-      else if ((insn & 0xfff00000) == 0xe8800000       /* stm Rn, { registers } */
+      else if ((insn & 0xfff00000) == 0xe8800000       /* stm Rn,
+                                                          { registers } */
               && pv_is_register (regs[bits (insn, 16, 19)], ARM_SP_REGNUM))
        {
          /* No need to add this to saved_regs -- it's just arg regs.  */
@@ -1753,7 +1781,8 @@ arm_analyze_prologue (struct gdbarch *gdbarch,
          imm = (imm >> rot) | (imm << (32 - rot));
          regs[ARM_SP_REGNUM] = pv_add_constant (regs[ARM_SP_REGNUM], -imm);
        }
-      else if ((insn & 0xffff7fff) == 0xed6d0103       /* stfe f?, [sp, -#c]! */
+      else if ((insn & 0xffff7fff) == 0xed6d0103       /* stfe f?,
+                                                          [sp, -#c]! */
               && gdbarch_tdep (gdbarch)->have_fpa_registers)
        {
          if (pv_area_store_would_trash (stack, regs[ARM_SP_REGNUM]))
@@ -1763,7 +1792,8 @@ arm_analyze_prologue (struct gdbarch *gdbarch,
          regno = ARM_F0_REGNUM + ((insn >> 12) & 0x07);
          pv_area_store (stack, regs[ARM_SP_REGNUM], 12, regs[regno]);
        }
-      else if ((insn & 0xffbf0fff) == 0xec2d0200       /* sfmfd f0, 4, [sp!] */
+      else if ((insn & 0xffbf0fff) == 0xec2d0200       /* sfmfd f0, 4,
+                                                          [sp!] */
               && gdbarch_tdep (gdbarch)->have_fpa_registers)
        {
          int n_saved_fp_regs;
@@ -1803,33 +1833,25 @@ arm_analyze_prologue (struct gdbarch *gdbarch,
             the stack.  */
          CORE_ADDR dest = BranchDest (current_pc, insn);
 
-         if (skip_prologue_function (dest))
+         if (skip_prologue_function (gdbarch, dest, 0))
            continue;
          else
            break;
        }
       else if ((insn & 0xf0000000) != 0xe0000000)
-       break;                  /* Condition not true, exit early */
+       break;                  /* Condition not true, exit early */
       else if (arm_instruction_changes_pc (insn))
        /* Don't scan past anything that might change control flow.  */
        break;
-      else if ((insn & 0xfe500000) == 0xe8100000)      /* ldm */
-       {
-         /* Ignore block loads from the stack, potentially copying
-            parameters from memory.  */
-         if (pv_is_register (regs[bits (insn, 16, 19)], ARM_SP_REGNUM))
-           continue;
-         else
-           break;
-       }
-      else if ((insn & 0xfc500000) == 0xe4100000)
-       {
-         /* Similarly ignore single loads from the stack.  */
-         if (pv_is_register (regs[bits (insn, 16, 19)], ARM_SP_REGNUM))
-           continue;
-         else
-           break;
-       }
+      else if ((insn & 0xfe500000) == 0xe8100000       /* ldm */
+              && pv_is_register (regs[bits (insn, 16, 19)], ARM_SP_REGNUM))
+       /* Ignore block loads from the stack, potentially copying
+          parameters from memory.  */
+       continue;
+      else if ((insn & 0xfc500000) == 0xe4100000
+              && pv_is_register (regs[bits (insn, 16, 19)], ARM_SP_REGNUM))
+       /* Similarly ignore single loads from the stack.  */
+       continue;
       else if ((insn & 0xffff0ff0) == 0xe1a00000)
        /* MOV Rd, Rm.  Skip register copies, i.e. saves to another
           register instead of the stack.  */
@@ -1854,18 +1876,12 @@ arm_analyze_prologue (struct gdbarch *gdbarch,
       framereg = ARM_FP_REGNUM;
       framesize = -regs[ARM_FP_REGNUM].k;
     }
-  else if (pv_is_register (regs[ARM_SP_REGNUM], ARM_SP_REGNUM))
+  else
     {
       /* Try the stack pointer... this is a bit desperate.  */
       framereg = ARM_SP_REGNUM;
       framesize = -regs[ARM_SP_REGNUM].k;
     }
-  else
-    {
-      /* We're just out of luck.  We don't know where the frame is.  */
-      framereg = -1;
-      framesize = 0;
-    }
 
   if (cache)
     {
@@ -2032,7 +2048,13 @@ arm_prologue_this_id (struct frame_info *this_frame,
   if (cache->prev_sp == 0)
     return;
 
+  /* Use function start address as part of the frame ID.  If we cannot
+     identify the start address (due to missing symbol information),
+     fall back to just using the current PC.  */
   func = get_frame_func (this_frame);
+  if (!func)
+    func = pc;
+
   id = frame_id_build (cache->prev_sp, func);
   *this_id = id;
 }
@@ -2097,3939 +2119,6316 @@ arm_prologue_prev_register (struct frame_info *this_frame,
 
 struct frame_unwind arm_prologue_unwind = {
   NORMAL_FRAME,
+  default_frame_unwind_stop_reason,
   arm_prologue_this_id,
   arm_prologue_prev_register,
   NULL,
   default_frame_sniffer
 };
 
-static struct arm_prologue_cache *
-arm_make_stub_cache (struct frame_info *this_frame)
-{
-  struct arm_prologue_cache *cache;
-
-  cache = FRAME_OBSTACK_ZALLOC (struct arm_prologue_cache);
-  cache->saved_regs = trad_frame_alloc_saved_regs (this_frame);
+/* Maintain a list of ARM exception table entries per objfile, similar to the
+   list of mapping symbols.  We only cache entries for standard ARM-defined
+   personality routines; the cache will contain only the frame unwinding
+   instructions associated with the entry (not the descriptors).  */
 
-  cache->prev_sp = get_frame_register_unsigned (this_frame, ARM_SP_REGNUM);
+static const struct objfile_data *arm_exidx_data_key;
 
-  return cache;
-}
+struct arm_exidx_entry
+{
+  bfd_vma addr;
+  gdb_byte *entry;
+};
+typedef struct arm_exidx_entry arm_exidx_entry_s;
+DEF_VEC_O(arm_exidx_entry_s);
 
-/* Our frame ID for a stub frame is the current SP and LR.  */
+struct arm_exidx_data
+{
+  VEC(arm_exidx_entry_s) **section_maps;
+};
 
 static void
-arm_stub_this_id (struct frame_info *this_frame,
-                 void **this_cache,
-                 struct frame_id *this_id)
+arm_exidx_data_free (struct objfile *objfile, void *arg)
 {
-  struct arm_prologue_cache *cache;
-
-  if (*this_cache == NULL)
-    *this_cache = arm_make_stub_cache (this_frame);
-  cache = *this_cache;
+  struct arm_exidx_data *data = arg;
+  unsigned int i;
 
-  *this_id = frame_id_build (cache->prev_sp, get_frame_pc (this_frame));
+  for (i = 0; i < objfile->obfd->section_count; i++)
+    VEC_free (arm_exidx_entry_s, data->section_maps[i]);
 }
 
-static int
-arm_stub_unwind_sniffer (const struct frame_unwind *self,
-                        struct frame_info *this_frame,
-                        void **this_prologue_cache)
+static inline int
+arm_compare_exidx_entries (const struct arm_exidx_entry *lhs,
+                          const struct arm_exidx_entry *rhs)
 {
-  CORE_ADDR addr_in_block;
-  char dummy[4];
-
-  addr_in_block = get_frame_address_in_block (this_frame);
-  if (in_plt_section (addr_in_block, NULL)
-      /* We also use the stub winder if the target memory is unreadable
-        to avoid having the prologue unwinder trying to read it.  */
-      || target_read_memory (get_frame_pc (this_frame), dummy, 4) != 0)
-    return 1;
-
-  return 0;
+  return lhs->addr < rhs->addr;
 }
 
-struct frame_unwind arm_stub_unwind = {
-  NORMAL_FRAME,
-  arm_stub_this_id,
-  arm_prologue_prev_register,
-  NULL,
-  arm_stub_unwind_sniffer
-};
-
-static CORE_ADDR
-arm_normal_frame_base (struct frame_info *this_frame, void **this_cache)
+static struct obj_section *
+arm_obj_section_from_vma (struct objfile *objfile, bfd_vma vma)
 {
-  struct arm_prologue_cache *cache;
+  struct obj_section *osect;
 
-  if (*this_cache == NULL)
-    *this_cache = arm_make_prologue_cache (this_frame);
-  cache = *this_cache;
-
-  return cache->prev_sp - cache->framesize;
-}
-
-struct frame_base arm_normal_base = {
-  &arm_prologue_unwind,
-  arm_normal_frame_base,
-  arm_normal_frame_base,
-  arm_normal_frame_base
-};
+  ALL_OBJFILE_OSECTIONS (objfile, osect)
+    if (bfd_get_section_flags (objfile->obfd,
+                              osect->the_bfd_section) & SEC_ALLOC)
+      {
+       bfd_vma start, size;
+       start = bfd_get_section_vma (objfile->obfd, osect->the_bfd_section);
+       size = bfd_get_section_size (osect->the_bfd_section);
 
-/* Assuming THIS_FRAME is a dummy, return the frame ID of that
-   dummy frame.  The frame ID's base needs to match the TOS value
-   saved by save_dummy_frame_tos() and returned from
-   arm_push_dummy_call, and the PC needs to match the dummy frame's
-   breakpoint.  */
+       if (start <= vma && vma < start + size)
+         return osect;
+      }
 
-static struct frame_id
-arm_dummy_id (struct gdbarch *gdbarch, struct frame_info *this_frame)
-{
-  return frame_id_build (get_frame_register_unsigned (this_frame, ARM_SP_REGNUM),
-                        get_frame_pc (this_frame));
+  return NULL;
 }
 
-/* Given THIS_FRAME, find the previous frame's resume PC (which will
-   be used to construct the previous frame's ID, after looking up the
-   containing function).  */
-
-static CORE_ADDR
-arm_unwind_pc (struct gdbarch *gdbarch, struct frame_info *this_frame)
-{
-  CORE_ADDR pc;
-  pc = frame_unwind_register_unsigned (this_frame, ARM_PC_REGNUM);
-  return arm_addr_bits_remove (gdbarch, pc);
-}
+/* Parse contents of exception table and exception index sections
+   of OBJFILE, and fill in the exception table entry cache.
 
-static CORE_ADDR
-arm_unwind_sp (struct gdbarch *gdbarch, struct frame_info *this_frame)
-{
-  return frame_unwind_register_unsigned (this_frame, ARM_SP_REGNUM);
-}
+   For each entry that refers to a standard ARM-defined personality
+   routine, extract the frame unwinding instructions (from either
+   the index or the table section).  The unwinding instructions
+   are normalized by:
+    - extracting them from the rest of the table data
+    - converting to host endianness
+    - appending the implicit 0xb0 ("Finish") code
 
-static struct value *
-arm_dwarf2_prev_register (struct frame_info *this_frame, void **this_cache,
-                         int regnum)
-{
-  struct gdbarch * gdbarch = get_frame_arch (this_frame);
-  CORE_ADDR lr, cpsr;
-  ULONGEST t_bit = arm_psr_thumb_bit (gdbarch);
+   The extracted and normalized instructions are stored for later
+   retrieval by the arm_find_exidx_entry routine.  */
+static void
+arm_exidx_new_objfile (struct objfile *objfile)
+{
+  struct cleanup *cleanups;
+  struct arm_exidx_data *data;
+  asection *exidx, *extab;
+  bfd_vma exidx_vma = 0, extab_vma = 0;
+  bfd_size_type exidx_size = 0, extab_size = 0;
+  gdb_byte *exidx_data = NULL, *extab_data = NULL;
+  LONGEST i;
+
+  /* If we've already touched this file, do nothing.  */
+  if (!objfile || objfile_data (objfile, arm_exidx_data_key) != NULL)
+    return;
+  cleanups = make_cleanup (null_cleanup, NULL);
 
-  switch (regnum)
+  /* Read contents of exception table and index.  */
+  exidx = bfd_get_section_by_name (objfile->obfd, ".ARM.exidx");
+  if (exidx)
     {
-    case ARM_PC_REGNUM:
-      /* The PC is normally copied from the return column, which
-        describes saves of LR.  However, that version may have an
-        extra bit set to indicate Thumb state.  The bit is not
-        part of the PC.  */
-      lr = frame_unwind_register_unsigned (this_frame, ARM_LR_REGNUM);
-      return frame_unwind_got_constant (this_frame, regnum,
-                                       arm_addr_bits_remove (gdbarch, lr));
-
-    case ARM_PS_REGNUM:
-      /* Reconstruct the T bit; see arm_prologue_prev_register for details.  */
-      cpsr = get_frame_register_unsigned (this_frame, regnum);
-      lr = frame_unwind_register_unsigned (this_frame, ARM_LR_REGNUM);
-      if (IS_THUMB_ADDR (lr))
-       cpsr |= t_bit;
-      else
-       cpsr &= ~t_bit;
-      return frame_unwind_got_constant (this_frame, regnum, cpsr);
+      exidx_vma = bfd_section_vma (objfile->obfd, exidx);
+      exidx_size = bfd_get_section_size (exidx);
+      exidx_data = xmalloc (exidx_size);
+      make_cleanup (xfree, exidx_data);
 
-    default:
-      internal_error (__FILE__, __LINE__,
-                     _("Unexpected register %d"), regnum);
+      if (!bfd_get_section_contents (objfile->obfd, exidx,
+                                    exidx_data, 0, exidx_size))
+       {
+         do_cleanups (cleanups);
+         return;
+       }
     }
-}
 
-static void
-arm_dwarf2_frame_init_reg (struct gdbarch *gdbarch, int regnum,
-                          struct dwarf2_frame_state_reg *reg,
-                          struct frame_info *this_frame)
-{
-  switch (regnum)
+  extab = bfd_get_section_by_name (objfile->obfd, ".ARM.extab");
+  if (extab)
     {
-    case ARM_PC_REGNUM:
-    case ARM_PS_REGNUM:
-      reg->how = DWARF2_FRAME_REG_FN;
-      reg->loc.fn = arm_dwarf2_prev_register;
-      break;
-    case ARM_SP_REGNUM:
-      reg->how = DWARF2_FRAME_REG_CFA;
-      break;
+      extab_vma = bfd_section_vma (objfile->obfd, extab);
+      extab_size = bfd_get_section_size (extab);
+      extab_data = xmalloc (extab_size);
+      make_cleanup (xfree, extab_data);
+
+      if (!bfd_get_section_contents (objfile->obfd, extab,
+                                    extab_data, 0, extab_size))
+       {
+         do_cleanups (cleanups);
+         return;
+       }
     }
-}
 
-/* Return true if we are in the function's epilogue, i.e. after the
-   instruction that destroyed the function's stack frame.  */
+  /* Allocate exception table data structure.  */
+  data = OBSTACK_ZALLOC (&objfile->objfile_obstack, struct arm_exidx_data);
+  set_objfile_data (objfile, arm_exidx_data_key, data);
+  data->section_maps = OBSTACK_CALLOC (&objfile->objfile_obstack,
+                                      objfile->obfd->section_count,
+                                      VEC(arm_exidx_entry_s) *);
 
-static int
-thumb_in_function_epilogue_p (struct gdbarch *gdbarch, CORE_ADDR pc)
-{
-  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
-  unsigned int insn, insn2;
-  int found_return = 0, found_stack_adjust = 0;
-  CORE_ADDR func_start, func_end;
-  CORE_ADDR scan_pc;
-  gdb_byte buf[4];
+  /* Fill in exception table.  */
+  for (i = 0; i < exidx_size / 8; i++)
+    {
+      struct arm_exidx_entry new_exidx_entry;
+      bfd_vma idx = bfd_h_get_32 (objfile->obfd, exidx_data + i * 8);
+      bfd_vma val = bfd_h_get_32 (objfile->obfd, exidx_data + i * 8 + 4);
+      bfd_vma addr = 0, word = 0;
+      int n_bytes = 0, n_words = 0;
+      struct obj_section *sec;
+      gdb_byte *entry = NULL;
 
-  if (!find_pc_partial_function (pc, NULL, &func_start, &func_end))
-    return 0;
+      /* Extract address of start of function.  */
+      idx = ((idx & 0x7fffffff) ^ 0x40000000) - 0x40000000;
+      idx += exidx_vma + i * 8;
 
-  /* The epilogue is a sequence of instructions along the following lines:
+      /* Find section containing function and compute section offset.  */
+      sec = arm_obj_section_from_vma (objfile, idx);
+      if (sec == NULL)
+       continue;
+      idx -= bfd_get_section_vma (objfile->obfd, sec->the_bfd_section);
 
-    - add stack frame size to SP or FP
-    - [if frame pointer used] restore SP from FP
-    - restore registers from SP [may include PC]
-    - a return-type instruction [if PC wasn't already restored]
+      /* Determine address of exception table entry.  */
+      if (val == 1)
+       {
+         /* EXIDX_CANTUNWIND -- no exception table entry present.  */
+       }
+      else if ((val & 0xff000000) == 0x80000000)
+       {
+         /* Exception table entry embedded in .ARM.exidx
+            -- must be short form.  */
+         word = val;
+         n_bytes = 3;
+       }
+      else if (!(val & 0x80000000))
+       {
+         /* Exception table entry in .ARM.extab.  */
+         addr = ((val & 0x7fffffff) ^ 0x40000000) - 0x40000000;
+         addr += exidx_vma + i * 8 + 4;
 
-    In a first pass, we scan forward from the current PC and verify the
-    instructions we find as compatible with this sequence, ending in a
-    return instruction.
+         if (addr >= extab_vma && addr + 4 <= extab_vma + extab_size)
+           {
+             word = bfd_h_get_32 (objfile->obfd,
+                                  extab_data + addr - extab_vma);
+             addr += 4;
 
-    However, this is not sufficient to distinguish indirect function calls
-    within a function from indirect tail calls in the epilogue in some cases.
-    Therefore, if we didn't already find any SP-changing instruction during
-    forward scan, we add a backward scanning heuristic to ensure we actually
-    are in the epilogue.  */
+             if ((word & 0xff000000) == 0x80000000)
+               {
+                 /* Short form.  */
+                 n_bytes = 3;
+               }
+             else if ((word & 0xff000000) == 0x81000000
+                      || (word & 0xff000000) == 0x82000000)
+               {
+                 /* Long form.  */
+                 n_bytes = 2;
+                 n_words = ((word >> 16) & 0xff);
+               }
+             else if (!(word & 0x80000000))
+               {
+                 bfd_vma pers;
+                 struct obj_section *pers_sec;
+                 int gnu_personality = 0;
+
+                 /* Custom personality routine.  */
+                 pers = ((word & 0x7fffffff) ^ 0x40000000) - 0x40000000;
+                 pers = UNMAKE_THUMB_ADDR (pers + addr - 4);
+
+                 /* Check whether we've got one of the variants of the
+                    GNU personality routines.  */
+                 pers_sec = arm_obj_section_from_vma (objfile, pers);
+                 if (pers_sec)
+                   {
+                     static const char *personality[] = 
+                       {
+                         "__gcc_personality_v0",
+                         "__gxx_personality_v0",
+                         "__gcj_personality_v0",
+                         "__gnu_objc_personality_v0",
+                         NULL
+                       };
+
+                     CORE_ADDR pc = pers + obj_section_offset (pers_sec);
+                     int k;
+
+                     for (k = 0; personality[k]; k++)
+                       if (lookup_minimal_symbol_by_pc_name
+                             (pc, personality[k], objfile))
+                         {
+                           gnu_personality = 1;
+                           break;
+                         }
+                   }
 
-  scan_pc = pc;
-  while (scan_pc < func_end && !found_return)
-    {
-      if (target_read_memory (scan_pc, buf, 2))
-       break;
+                 /* If so, the next word contains a word count in the high
+                    byte, followed by the same unwind instructions as the
+                    pre-defined forms.  */
+                 if (gnu_personality
+                     && addr + 4 <= extab_vma + extab_size)
+                   {
+                     word = bfd_h_get_32 (objfile->obfd,
+                                          extab_data + addr - extab_vma);
+                     addr += 4;
+                     n_bytes = 3;
+                     n_words = ((word >> 24) & 0xff);
+                   }
+               }
+           }
+       }
 
-      scan_pc += 2;
-      insn = extract_unsigned_integer (buf, 2, byte_order_for_code);
+      /* Sanity check address.  */
+      if (n_words)
+       if (addr < extab_vma || addr + 4 * n_words > extab_vma + extab_size)
+         n_words = n_bytes = 0;
 
-      if ((insn & 0xff80) == 0x4700)  /* bx <Rm> */
-       found_return = 1;
-      else if (insn == 0x46f7)  /* mov pc, lr */
-       found_return = 1;
-      else if (insn == 0x46bd)  /* mov sp, r7 */
-       found_stack_adjust = 1;
-      else if ((insn & 0xff00) == 0xb000)  /* add sp, imm or sub sp, imm  */
-       found_stack_adjust = 1;
-      else if ((insn & 0xfe00) == 0xbc00)  /* pop <registers> */
-       {
-         found_stack_adjust = 1;
-         if (insn & 0x0100)  /* <registers> include PC.  */
-           found_return = 1;
-       }
-      else if ((insn & 0xe000) == 0xe000)  /* 32-bit Thumb-2 instruction */
+      /* The unwind instructions reside in WORD (only the N_BYTES least
+        significant bytes are valid), followed by N_WORDS words in the
+        extab section starting at ADDR.  */
+      if (n_bytes || n_words)
        {
-         if (target_read_memory (scan_pc, buf, 2))
-           break;
+         gdb_byte *p = entry = obstack_alloc (&objfile->objfile_obstack,
+                                              n_bytes + n_words * 4 + 1);
 
-         scan_pc += 2;
-         insn2 = extract_unsigned_integer (buf, 2, byte_order_for_code);
+         while (n_bytes--)
+           *p++ = (gdb_byte) ((word >> (8 * n_bytes)) & 0xff);
 
-         if (insn == 0xe8bd)  /* ldm.w sp!, <registers> */
+         while (n_words--)
            {
-             found_stack_adjust = 1;
-             if (insn2 & 0x8000)  /* <registers> include PC.  */
-               found_return = 1;
-           }
-         else if (insn == 0xf85d  /* ldr.w <Rt>, [sp], #4 */
-                  && (insn2 & 0x0fff) == 0x0b04)
-           {
-             found_stack_adjust = 1;
-             if ((insn2 & 0xf000) == 0xf000) /* <Rt> is PC.  */
-               found_return = 1;
+             word = bfd_h_get_32 (objfile->obfd,
+                                  extab_data + addr - extab_vma);
+             addr += 4;
+
+             *p++ = (gdb_byte) ((word >> 24) & 0xff);
+             *p++ = (gdb_byte) ((word >> 16) & 0xff);
+             *p++ = (gdb_byte) ((word >> 8) & 0xff);
+             *p++ = (gdb_byte) (word & 0xff);
            }
-         else if ((insn & 0xffbf) == 0xecbd  /* vldm sp!, <list> */
-                  && (insn2 & 0x0e00) == 0x0a00)
-           found_stack_adjust = 1;
-         else
-           break;
+
+         /* Implied "Finish" to terminate the list.  */
+         *p++ = 0xb0;
        }
-      else
-       break;
+
+      /* Push entry onto vector.  They are guaranteed to always
+        appear in order of increasing addresses.  */
+      new_exidx_entry.addr = idx;
+      new_exidx_entry.entry = entry;
+      VEC_safe_push (arm_exidx_entry_s,
+                    data->section_maps[sec->the_bfd_section->index],
+                    &new_exidx_entry);
     }
 
-  if (!found_return)
-    return 0;
+  do_cleanups (cleanups);
+}
 
-  /* Since any instruction in the epilogue sequence, with the possible
-     exception of return itself, updates the stack pointer, we need to
-     scan backwards for at most one instruction.  Try either a 16-bit or
-     a 32-bit instruction.  This is just a heuristic, so we do not worry
-     too much about false positives.*/
+/* Search for the exception table entry covering MEMADDR.  If one is found,
+   return a pointer to its data.  Otherwise, return 0.  If START is non-NULL,
+   set *START to the start of the region covered by this entry.  */
 
-  if (!found_stack_adjust)
+static gdb_byte *
+arm_find_exidx_entry (CORE_ADDR memaddr, CORE_ADDR *start)
+{
+  struct obj_section *sec;
+
+  sec = find_pc_section (memaddr);
+  if (sec != NULL)
     {
-      if (pc - 4 < func_start)
-       return 0;
-      if (target_read_memory (pc - 4, buf, 4))
-       return 0;
+      struct arm_exidx_data *data;
+      VEC(arm_exidx_entry_s) *map;
+      struct arm_exidx_entry map_key = { memaddr - obj_section_addr (sec), 0 };
+      unsigned int idx;
 
-      insn = extract_unsigned_integer (buf, 2, byte_order_for_code);
-      insn2 = extract_unsigned_integer (buf + 2, 2, byte_order_for_code);
+      data = objfile_data (sec->objfile, arm_exidx_data_key);
+      if (data != NULL)
+       {
+         map = data->section_maps[sec->the_bfd_section->index];
+         if (!VEC_empty (arm_exidx_entry_s, map))
+           {
+             struct arm_exidx_entry *map_sym;
 
-      if (insn2 == 0x46bd)  /* mov sp, r7 */
-       found_stack_adjust = 1;
-      else if ((insn2 & 0xff00) == 0xb000)  /* add sp, imm or sub sp, imm  */
-       found_stack_adjust = 1;
-      else if ((insn2 & 0xff00) == 0xbc00)  /* pop <registers> without PC */
-       found_stack_adjust = 1;
-      else if (insn == 0xe8bd)  /* ldm.w sp!, <registers> */
-       found_stack_adjust = 1;
-      else if (insn == 0xf85d  /* ldr.w <Rt>, [sp], #4 */
-              && (insn2 & 0x0fff) == 0x0b04)
-       found_stack_adjust = 1;
-      else if ((insn & 0xffbf) == 0xecbd  /* vldm sp!, <list> */
-              && (insn2 & 0x0e00) == 0x0a00)
-       found_stack_adjust = 1;
+             idx = VEC_lower_bound (arm_exidx_entry_s, map, &map_key,
+                                    arm_compare_exidx_entries);
+
+             /* VEC_lower_bound finds the earliest ordered insertion
+                point.  If the following symbol starts at this exact
+                address, we use that; otherwise, the preceding
+                exception table entry covers this address.  */
+             if (idx < VEC_length (arm_exidx_entry_s, map))
+               {
+                 map_sym = VEC_index (arm_exidx_entry_s, map, idx);
+                 if (map_sym->addr == map_key.addr)
+                   {
+                     if (start)
+                       *start = map_sym->addr + obj_section_addr (sec);
+                     return map_sym->entry;
+                   }
+               }
+
+             if (idx > 0)
+               {
+                 map_sym = VEC_index (arm_exidx_entry_s, map, idx - 1);
+                 if (start)
+                   *start = map_sym->addr + obj_section_addr (sec);
+                 return map_sym->entry;
+               }
+           }
+       }
     }
 
-  return found_stack_adjust;
+  return NULL;
 }
 
-/* Return true if we are in the function's epilogue, i.e. after the
-   instruction that destroyed the function's stack frame.  */
+/* Given the current frame THIS_FRAME, and its associated frame unwinding
+   instruction list from the ARM exception table entry ENTRY, allocate and
+   return a prologue cache structure describing how to unwind this frame.
 
-static int
-arm_in_function_epilogue_p (struct gdbarch *gdbarch, CORE_ADDR pc)
+   Return NULL if the unwinding instruction list contains a "spare",
+   "reserved" or "refuse to unwind" instruction as defined in section
+   "9.3 Frame unwinding instructions" of the "Exception Handling ABI
+   for the ARM Architecture" document.  */
+
+static struct arm_prologue_cache *
+arm_exidx_fill_cache (struct frame_info *this_frame, gdb_byte *entry)
 {
-  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
-  unsigned int insn;
-  int found_return, found_stack_adjust;
-  CORE_ADDR func_start, func_end;
+  CORE_ADDR vsp = 0;
+  int vsp_valid = 0;
 
-  if (arm_pc_is_thumb (gdbarch, pc))
-    return thumb_in_function_epilogue_p (gdbarch, pc);
+  struct arm_prologue_cache *cache;
+  cache = FRAME_OBSTACK_ZALLOC (struct arm_prologue_cache);
+  cache->saved_regs = trad_frame_alloc_saved_regs (this_frame);
 
-  if (!find_pc_partial_function (pc, NULL, &func_start, &func_end))
-    return 0;
+  for (;;)
+    {
+      gdb_byte insn;
 
-  /* We are in the epilogue if the previous instruction was a stack
-     adjustment and the next instruction is a possible return (bx, mov
-     pc, or pop).  We could have to scan backwards to find the stack
-     adjustment, or forwards to find the return, but this is a decent
-     approximation.  First scan forwards.  */
+      /* Whenever we reload SP, we actually have to retrieve its
+        actual value in the current frame.  */
+      if (!vsp_valid)
+       {
+         if (trad_frame_realreg_p (cache->saved_regs, ARM_SP_REGNUM))
+           {
+             int reg = cache->saved_regs[ARM_SP_REGNUM].realreg;
+             vsp = get_frame_register_unsigned (this_frame, reg);
+           }
+         else
+           {
+             CORE_ADDR addr = cache->saved_regs[ARM_SP_REGNUM].addr;
+             vsp = get_frame_memory_unsigned (this_frame, addr, 4);
+           }
 
-  found_return = 0;
-  insn = read_memory_unsigned_integer (pc, 4, byte_order_for_code);
-  if (bits (insn, 28, 31) != INST_NV)
-    {
-      if ((insn & 0x0ffffff0) == 0x012fff10)
-       /* BX.  */
-       found_return = 1;
-      else if ((insn & 0x0ffffff0) == 0x01a0f000)
-       /* MOV PC.  */
-       found_return = 1;
-      else if ((insn & 0x0fff0000) == 0x08bd0000
-         && (insn & 0x0000c000) != 0)
-       /* POP (LDMIA), including PC or LR.  */
-       found_return = 1;
-    }
+         vsp_valid = 1;
+       }
 
-  if (!found_return)
-    return 0;
+      /* Decode next unwind instruction.  */
+      insn = *entry++;
 
-  /* Scan backwards.  This is just a heuristic, so do not worry about
-     false positives from mode changes.  */
+      if ((insn & 0xc0) == 0)
+       {
+         int offset = insn & 0x3f;
+         vsp += (offset << 2) + 4;
+       }
+      else if ((insn & 0xc0) == 0x40)
+       {
+         int offset = insn & 0x3f;
+         vsp -= (offset << 2) + 4;
+       }
+      else if ((insn & 0xf0) == 0x80)
+       {
+         int mask = ((insn & 0xf) << 8) | *entry++;
+         int i;
 
-  if (pc < func_start + 4)
-    return 0;
+         /* The special case of an all-zero mask identifies
+            "Refuse to unwind".  We return NULL to fall back
+            to the prologue analyzer.  */
+         if (mask == 0)
+           return NULL;
 
-  found_stack_adjust = 0;
-  insn = read_memory_unsigned_integer (pc - 4, 4, byte_order_for_code);
-  if (bits (insn, 28, 31) != INST_NV)
-    {
-      if ((insn & 0x0df0f000) == 0x0080d000)
-       /* ADD SP (register or immediate).  */
-       found_stack_adjust = 1;
-      else if ((insn & 0x0df0f000) == 0x0040d000)
-       /* SUB SP (register or immediate).  */
-       found_stack_adjust = 1;
-      else if ((insn & 0x0ffffff0) == 0x01a0d000)
-       /* MOV SP.  */
-       found_stack_adjust = 1;
-      else if ((insn & 0x0fff0000) == 0x08bd0000)
-       /* POP (LDMIA).  */
-       found_stack_adjust = 1;
-    }
+         /* Pop registers r4..r15 under mask.  */
+         for (i = 0; i < 12; i++)
+           if (mask & (1 << i))
+             {
+               cache->saved_regs[4 + i].addr = vsp;
+               vsp += 4;
+             }
 
-  if (found_stack_adjust)
-    return 1;
+         /* Special-case popping SP -- we need to reload vsp.  */
+         if (mask & (1 << (ARM_SP_REGNUM - 4)))
+           vsp_valid = 0;
+       }
+      else if ((insn & 0xf0) == 0x90)
+       {
+         int reg = insn & 0xf;
 
-  return 0;
-}
+         /* Reserved cases.  */
+         if (reg == ARM_SP_REGNUM || reg == ARM_PC_REGNUM)
+           return NULL;
 
+         /* Set SP from another register and mark VSP for reload.  */
+         cache->saved_regs[ARM_SP_REGNUM] = cache->saved_regs[reg];
+         vsp_valid = 0;
+       }
+      else if ((insn & 0xf0) == 0xa0)
+       {
+         int count = insn & 0x7;
+         int pop_lr = (insn & 0x8) != 0;
+         int i;
 
-/* When arguments must be pushed onto the stack, they go on in reverse
-   order.  The code below implements a FILO (stack) to do this.  */
+         /* Pop r4..r[4+count].  */
+         for (i = 0; i <= count; i++)
+           {
+             cache->saved_regs[4 + i].addr = vsp;
+             vsp += 4;
+           }
 
-struct stack_item
-{
-  int len;
-  struct stack_item *prev;
-  void *data;
-};
+         /* If indicated by flag, pop LR as well.  */
+         if (pop_lr)
+           {
+             cache->saved_regs[ARM_LR_REGNUM].addr = vsp;
+             vsp += 4;
+           }
+       }
+      else if (insn == 0xb0)
+       {
+         /* We could only have updated PC by popping into it; if so, it
+            will show up as address.  Otherwise, copy LR into PC.  */
+         if (!trad_frame_addr_p (cache->saved_regs, ARM_PC_REGNUM))
+           cache->saved_regs[ARM_PC_REGNUM]
+             = cache->saved_regs[ARM_LR_REGNUM];
 
-static struct stack_item *
-push_stack_item (struct stack_item *prev, const void *contents, int len)
-{
-  struct stack_item *si;
-  si = xmalloc (sizeof (struct stack_item));
-  si->data = xmalloc (len);
-  si->len = len;
-  si->prev = prev;
-  memcpy (si->data, contents, len);
-  return si;
-}
+         /* We're done.  */
+         break;
+       }
+      else if (insn == 0xb1)
+       {
+         int mask = *entry++;
+         int i;
 
-static struct stack_item *
-pop_stack_item (struct stack_item *si)
-{
-  struct stack_item *dead = si;
-  si = si->prev;
-  xfree (dead->data);
-  xfree (dead);
-  return si;
-}
+         /* All-zero mask and mask >= 16 is "spare".  */
+         if (mask == 0 || mask >= 16)
+           return NULL;
 
+         /* Pop r0..r3 under mask.  */
+         for (i = 0; i < 4; i++)
+           if (mask & (1 << i))
+             {
+               cache->saved_regs[i].addr = vsp;
+               vsp += 4;
+             }
+       }
+      else if (insn == 0xb2)
+       {
+         ULONGEST offset = 0;
+         unsigned shift = 0;
 
-/* Return the alignment (in bytes) of the given type.  */
+         do
+           {
+             offset |= (*entry & 0x7f) << shift;
+             shift += 7;
+           }
+         while (*entry++ & 0x80);
 
-static int
-arm_type_align (struct type *t)
-{
-  int n;
-  int align;
-  int falign;
+         vsp += 0x204 + (offset << 2);
+       }
+      else if (insn == 0xb3)
+       {
+         int start = *entry >> 4;
+         int count = (*entry++) & 0xf;
+         int i;
 
-  t = check_typedef (t);
-  switch (TYPE_CODE (t))
-    {
-    default:
-      /* Should never happen.  */
-      internal_error (__FILE__, __LINE__, _("unknown type alignment"));
-      return 4;
-
-    case TYPE_CODE_PTR:
-    case TYPE_CODE_ENUM:
-    case TYPE_CODE_INT:
-    case TYPE_CODE_FLT:
-    case TYPE_CODE_SET:
-    case TYPE_CODE_RANGE:
-    case TYPE_CODE_BITSTRING:
-    case TYPE_CODE_REF:
-    case TYPE_CODE_CHAR:
-    case TYPE_CODE_BOOL:
-      return TYPE_LENGTH (t);
+         /* Only registers D0..D15 are valid here.  */
+         if (start + count >= 16)
+           return NULL;
 
-    case TYPE_CODE_ARRAY:
-    case TYPE_CODE_COMPLEX:
-      /* TODO: What about vector types?  */
-      return arm_type_align (TYPE_TARGET_TYPE (t));
+         /* Pop VFP double-precision registers D[start]..D[start+count].  */
+         for (i = 0; i <= count; i++)
+           {
+             cache->saved_regs[ARM_D0_REGNUM + start + i].addr = vsp;
+             vsp += 8;
+           }
 
-    case TYPE_CODE_STRUCT:
-    case TYPE_CODE_UNION:
-      align = 1;
-      for (n = 0; n < TYPE_NFIELDS (t); n++)
-       {
-         falign = arm_type_align (TYPE_FIELD_TYPE (t, n));
-         if (falign > align)
-           align = falign;
+         /* Add an extra 4 bytes for FSTMFDX-style stack.  */
+         vsp += 4;
        }
-      return align;
-    }
-}
-
-/* Possible base types for a candidate for passing and returning in
-   VFP registers.  */
+      else if ((insn & 0xf8) == 0xb8)
+       {
+         int count = insn & 0x7;
+         int i;
 
-enum arm_vfp_cprc_base_type
-{
-  VFP_CPRC_UNKNOWN,
-  VFP_CPRC_SINGLE,
-  VFP_CPRC_DOUBLE,
-  VFP_CPRC_VEC64,
-  VFP_CPRC_VEC128
-};
+         /* Pop VFP double-precision registers D[8]..D[8+count].  */
+         for (i = 0; i <= count; i++)
+           {
+             cache->saved_regs[ARM_D0_REGNUM + 8 + i].addr = vsp;
+             vsp += 8;
+           }
 
-/* The length of one element of base type B.  */
+         /* Add an extra 4 bytes for FSTMFDX-style stack.  */
+         vsp += 4;
+       }
+      else if (insn == 0xc6)
+       {
+         int start = *entry >> 4;
+         int count = (*entry++) & 0xf;
+         int i;
 
-static unsigned
-arm_vfp_cprc_unit_length (enum arm_vfp_cprc_base_type b)
-{
-  switch (b)
-    {
-    case VFP_CPRC_SINGLE:
-      return 4;
-    case VFP_CPRC_DOUBLE:
-      return 8;
-    case VFP_CPRC_VEC64:
-      return 8;
-    case VFP_CPRC_VEC128:
-      return 16;
-    default:
-      internal_error (__FILE__, __LINE__, _("Invalid VFP CPRC type: %d."),
-                     (int) b);
-    }
-}
+         /* Only registers WR0..WR15 are valid.  */
+         if (start + count >= 16)
+           return NULL;
 
-/* The character ('s', 'd' or 'q') for the type of VFP register used
-   for passing base type B.  */
+         /* Pop iwmmx registers WR[start]..WR[start+count].  */
+         for (i = 0; i <= count; i++)
+           {
+             cache->saved_regs[ARM_WR0_REGNUM + start + i].addr = vsp;
+             vsp += 8;
+           }
+       }
+      else if (insn == 0xc7)
+       {
+         int mask = *entry++;
+         int i;
 
-static int
-arm_vfp_cprc_reg_char (enum arm_vfp_cprc_base_type b)
-{
-  switch (b)
-    {
-    case VFP_CPRC_SINGLE:
-      return 's';
-    case VFP_CPRC_DOUBLE:
-      return 'd';
-    case VFP_CPRC_VEC64:
-      return 'd';
-    case VFP_CPRC_VEC128:
-      return 'q';
-    default:
-      internal_error (__FILE__, __LINE__, _("Invalid VFP CPRC type: %d."),
-                     (int) b);
-    }
-}
+         /* All-zero mask and mask >= 16 is "spare".  */
+         if (mask == 0 || mask >= 16)
+           return NULL;
 
-/* Determine whether T may be part of a candidate for passing and
-   returning in VFP registers, ignoring the limit on the total number
-   of components.  If *BASE_TYPE is VFP_CPRC_UNKNOWN, set it to the
-   classification of the first valid component found; if it is not
-   VFP_CPRC_UNKNOWN, all components must have the same classification
-   as *BASE_TYPE.  If it is found that T contains a type not permitted
-   for passing and returning in VFP registers, a type differently
-   classified from *BASE_TYPE, or two types differently classified
-   from each other, return -1, otherwise return the total number of
-   base-type elements found (possibly 0 in an empty structure or
-   array).  Vectors and complex types are not currently supported,
-   matching the generic AAPCS support.  */
+         /* Pop iwmmx general-purpose registers WCGR0..WCGR3 under mask.  */
+         for (i = 0; i < 4; i++)
+           if (mask & (1 << i))
+             {
+               cache->saved_regs[ARM_WCGR0_REGNUM + i].addr = vsp;
+               vsp += 4;
+             }
+       }
+      else if ((insn & 0xf8) == 0xc0)
+       {
+         int count = insn & 0x7;
+         int i;
 
-static int
-arm_vfp_cprc_sub_candidate (struct type *t,
-                           enum arm_vfp_cprc_base_type *base_type)
-{
-  t = check_typedef (t);
-  switch (TYPE_CODE (t))
-    {
-    case TYPE_CODE_FLT:
-      switch (TYPE_LENGTH (t))
+         /* Pop iwmmx registers WR[10]..WR[10+count].  */
+         for (i = 0; i <= count; i++)
+           {
+             cache->saved_regs[ARM_WR0_REGNUM + 10 + i].addr = vsp;
+             vsp += 8;
+           }
+       }
+      else if (insn == 0xc8)
        {
-       case 4:
-         if (*base_type == VFP_CPRC_UNKNOWN)
-           *base_type = VFP_CPRC_SINGLE;
-         else if (*base_type != VFP_CPRC_SINGLE)
-           return -1;
-         return 1;
+         int start = *entry >> 4;
+         int count = (*entry++) & 0xf;
+         int i;
 
-       case 8:
-         if (*base_type == VFP_CPRC_UNKNOWN)
-           *base_type = VFP_CPRC_DOUBLE;
-         else if (*base_type != VFP_CPRC_DOUBLE)
-           return -1;
-         return 1;
+         /* Only registers D0..D31 are valid.  */
+         if (start + count >= 16)
+           return NULL;
 
-       default:
-         return -1;
+         /* Pop VFP double-precision registers
+            D[16+start]..D[16+start+count].  */
+         for (i = 0; i <= count; i++)
+           {
+             cache->saved_regs[ARM_D0_REGNUM + 16 + start + i].addr = vsp;
+             vsp += 8;
+           }
        }
-      break;
+      else if (insn == 0xc9)
+       {
+         int start = *entry >> 4;
+         int count = (*entry++) & 0xf;
+         int i;
 
-    case TYPE_CODE_ARRAY:
-      {
-       int count;
-       unsigned unitlen;
-       count = arm_vfp_cprc_sub_candidate (TYPE_TARGET_TYPE (t), base_type);
-       if (count == -1)
-         return -1;
-       if (TYPE_LENGTH (t) == 0)
-         {
-           gdb_assert (count == 0);
-           return 0;
-         }
-       else if (count == 0)
-         return -1;
-       unitlen = arm_vfp_cprc_unit_length (*base_type);
-       gdb_assert ((TYPE_LENGTH (t) % unitlen) == 0);
-       return TYPE_LENGTH (t) / unitlen;
-      }
-      break;
+         /* Pop VFP double-precision registers D[start]..D[start+count].  */
+         for (i = 0; i <= count; i++)
+           {
+             cache->saved_regs[ARM_D0_REGNUM + start + i].addr = vsp;
+             vsp += 8;
+           }
+       }
+      else if ((insn & 0xf8) == 0xd0)
+       {
+         int count = insn & 0x7;
+         int i;
 
-    case TYPE_CODE_STRUCT:
-      {
-       int count = 0;
-       unsigned unitlen;
-       int i;
-       for (i = 0; i < TYPE_NFIELDS (t); i++)
-         {
-           int sub_count = arm_vfp_cprc_sub_candidate (TYPE_FIELD_TYPE (t, i),
-                                                       base_type);
-           if (sub_count == -1)
-             return -1;
-           count += sub_count;
-         }
-       if (TYPE_LENGTH (t) == 0)
-         {
-           gdb_assert (count == 0);
-           return 0;
-         }
-       else if (count == 0)
-         return -1;
-       unitlen = arm_vfp_cprc_unit_length (*base_type);
-       if (TYPE_LENGTH (t) != unitlen * count)
-         return -1;
-       return count;
-      }
+         /* Pop VFP double-precision registers D[8]..D[8+count].  */
+         for (i = 0; i <= count; i++)
+           {
+             cache->saved_regs[ARM_D0_REGNUM + 8 + i].addr = vsp;
+             vsp += 8;
+           }
+       }
+      else
+       {
+         /* Everything else is "spare".  */
+         return NULL;
+       }
+    }
 
-    case TYPE_CODE_UNION:
-      {
-       int count = 0;
-       unsigned unitlen;
-       int i;
-       for (i = 0; i < TYPE_NFIELDS (t); i++)
-         {
-           int sub_count = arm_vfp_cprc_sub_candidate (TYPE_FIELD_TYPE (t, i),
-                                                       base_type);
-           if (sub_count == -1)
-             return -1;
-           count = (count > sub_count ? count : sub_count);
-         }
-       if (TYPE_LENGTH (t) == 0)
-         {
-           gdb_assert (count == 0);
-           return 0;
-         }
-       else if (count == 0)
-         return -1;
-       unitlen = arm_vfp_cprc_unit_length (*base_type);
-       if (TYPE_LENGTH (t) != unitlen * count)
-         return -1;
-       return count;
-      }
+  /* If we restore SP from a register, assume this was the frame register.
+     Otherwise just fall back to SP as frame register.  */
+  if (trad_frame_realreg_p (cache->saved_regs, ARM_SP_REGNUM))
+    cache->framereg = cache->saved_regs[ARM_SP_REGNUM].realreg;
+  else
+    cache->framereg = ARM_SP_REGNUM;
 
-    default:
-      break;
-    }
+  /* Determine offset to previous frame.  */
+  cache->framesize
+    = vsp - get_frame_register_unsigned (this_frame, cache->framereg);
 
-  return -1;
+  /* We already got the previous SP.  */
+  cache->prev_sp = vsp;
+
+  return cache;
 }
 
-/* Determine whether T is a VFP co-processor register candidate (CPRC)
-   if passed to or returned from a non-variadic function with the VFP
-   ABI in effect.  Return 1 if it is, 0 otherwise.  If it is, set
-   *BASE_TYPE to the base type for T and *COUNT to the number of
-   elements of that base type before returning.  */
+/* Unwinding via ARM exception table entries.  Note that the sniffer
+   already computes a filled-in prologue cache, which is then used
+   with the same arm_prologue_this_id and arm_prologue_prev_register
+   routines also used for prologue-parsing based unwinding.  */
 
 static int
-arm_vfp_call_candidate (struct type *t, enum arm_vfp_cprc_base_type *base_type,
-                       int *count)
+arm_exidx_unwind_sniffer (const struct frame_unwind *self,
+                         struct frame_info *this_frame,
+                         void **this_prologue_cache)
 {
-  enum arm_vfp_cprc_base_type b = VFP_CPRC_UNKNOWN;
-  int c = arm_vfp_cprc_sub_candidate (t, &b);
-  if (c <= 0 || c > 4)
+  struct gdbarch *gdbarch = get_frame_arch (this_frame);
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  CORE_ADDR addr_in_block, exidx_region, func_start;
+  struct arm_prologue_cache *cache;
+  gdb_byte *entry;
+
+  /* See if we have an ARM exception table entry covering this address.  */
+  addr_in_block = get_frame_address_in_block (this_frame);
+  entry = arm_find_exidx_entry (addr_in_block, &exidx_region);
+  if (!entry)
     return 0;
-  *base_type = b;
-  *count = c;
-  return 1;
-}
 
-/* Return 1 if the VFP ABI should be used for passing arguments to and
-   returning values from a function of type FUNC_TYPE, 0
-   otherwise.  */
+  /* The ARM exception table does not describe unwind information
+     for arbitrary PC values, but is guaranteed to be correct only
+     at call sites.  We have to decide here whether we want to use
+     ARM exception table information for this frame, or fall back
+     to using prologue parsing.  (Note that if we have DWARF CFI,
+     this sniffer isn't even called -- CFI is always preferred.)
+
+     Before we make this decision, however, we check whether we
+     actually have *symbol* information for the current frame.
+     If not, prologue parsing would not work anyway, so we might
+     as well use the exception table and hope for the best.  */
+  if (find_pc_partial_function (addr_in_block, NULL, &func_start, NULL))
+    {
+      int exc_valid = 0;
+
+      /* If the next frame is "normal", we are at a call site in this
+        frame, so exception information is guaranteed to be valid.  */
+      if (get_next_frame (this_frame)
+         && get_frame_type (get_next_frame (this_frame)) == NORMAL_FRAME)
+       exc_valid = 1;
+
+      /* We also assume exception information is valid if we're currently
+        blocked in a system call.  The system library is supposed to
+        ensure this, so that e.g. pthread cancellation works.  */
+      if (arm_frame_is_thumb (this_frame))
+       {
+         LONGEST insn;
 
-static int
-arm_vfp_abi_for_function (struct gdbarch *gdbarch, struct type *func_type)
-{
-  struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
-  /* Variadic functions always use the base ABI.  Assume that functions
-     without debug info are not variadic.  */
-  if (func_type && TYPE_VARARGS (check_typedef (func_type)))
+         if (safe_read_memory_integer (get_frame_pc (this_frame) - 2, 2,
+                                       byte_order_for_code, &insn)
+             && (insn & 0xff00) == 0xdf00 /* svc */)
+           exc_valid = 1;
+       }
+      else
+       {
+         LONGEST insn;
+
+         if (safe_read_memory_integer (get_frame_pc (this_frame) - 4, 4,
+                                       byte_order_for_code, &insn)
+             && (insn & 0x0f000000) == 0x0f000000 /* svc */)
+           exc_valid = 1;
+       }
+       
+      /* Bail out if we don't know that exception information is valid.  */
+      if (!exc_valid)
+       return 0;
+
+     /* The ARM exception index does not mark the *end* of the region
+       covered by the entry, and some functions will not have any entry.
+       To correctly recognize the end of the covered region, the linker
+       should have inserted dummy records with a CANTUNWIND marker.
+
+       Unfortunately, current versions of GNU ld do not reliably do
+       this, and thus we may have found an incorrect entry above.
+       As a (temporary) sanity check, we only use the entry if it
+       lies *within* the bounds of the function.  Note that this check
+       might reject perfectly valid entries that just happen to cover
+       multiple functions; therefore this check ought to be removed
+       once the linker is fixed.  */
+      if (func_start > exidx_region)
+       return 0;
+    }
+
+  /* Decode the list of unwinding instructions into a prologue cache.
+     Note that this may fail due to e.g. a "refuse to unwind" code.  */
+  cache = arm_exidx_fill_cache (this_frame, entry);
+  if (!cache)
     return 0;
-  /* The VFP ABI is only supported as a variant of AAPCS.  */
-  if (tdep->arm_abi != ARM_ABI_AAPCS)
+
+  *this_prologue_cache = cache;
+  return 1;
+}
+
+struct frame_unwind arm_exidx_unwind = {
+  NORMAL_FRAME,
+  default_frame_unwind_stop_reason,
+  arm_prologue_this_id,
+  arm_prologue_prev_register,
+  NULL,
+  arm_exidx_unwind_sniffer
+};
+
+static struct arm_prologue_cache *
+arm_make_stub_cache (struct frame_info *this_frame)
+{
+  struct arm_prologue_cache *cache;
+
+  cache = FRAME_OBSTACK_ZALLOC (struct arm_prologue_cache);
+  cache->saved_regs = trad_frame_alloc_saved_regs (this_frame);
+
+  cache->prev_sp = get_frame_register_unsigned (this_frame, ARM_SP_REGNUM);
+
+  return cache;
+}
+
+/* Our frame ID for a stub frame is the current SP and LR.  */
+
+static void
+arm_stub_this_id (struct frame_info *this_frame,
+                 void **this_cache,
+                 struct frame_id *this_id)
+{
+  struct arm_prologue_cache *cache;
+
+  if (*this_cache == NULL)
+    *this_cache = arm_make_stub_cache (this_frame);
+  cache = *this_cache;
+
+  *this_id = frame_id_build (cache->prev_sp, get_frame_pc (this_frame));
+}
+
+static int
+arm_stub_unwind_sniffer (const struct frame_unwind *self,
+                        struct frame_info *this_frame,
+                        void **this_prologue_cache)
+{
+  CORE_ADDR addr_in_block;
+  char dummy[4];
+
+  addr_in_block = get_frame_address_in_block (this_frame);
+  if (in_plt_section (addr_in_block, NULL)
+      /* We also use the stub winder if the target memory is unreadable
+        to avoid having the prologue unwinder trying to read it.  */
+      || target_read_memory (get_frame_pc (this_frame), dummy, 4) != 0)
+    return 1;
+
+  return 0;
+}
+
+struct frame_unwind arm_stub_unwind = {
+  NORMAL_FRAME,
+  default_frame_unwind_stop_reason,
+  arm_stub_this_id,
+  arm_prologue_prev_register,
+  NULL,
+  arm_stub_unwind_sniffer
+};
+
+static CORE_ADDR
+arm_normal_frame_base (struct frame_info *this_frame, void **this_cache)
+{
+  struct arm_prologue_cache *cache;
+
+  if (*this_cache == NULL)
+    *this_cache = arm_make_prologue_cache (this_frame);
+  cache = *this_cache;
+
+  return cache->prev_sp - cache->framesize;
+}
+
+struct frame_base arm_normal_base = {
+  &arm_prologue_unwind,
+  arm_normal_frame_base,
+  arm_normal_frame_base,
+  arm_normal_frame_base
+};
+
+/* Assuming THIS_FRAME is a dummy, return the frame ID of that
+   dummy frame.  The frame ID's base needs to match the TOS value
+   saved by save_dummy_frame_tos() and returned from
+   arm_push_dummy_call, and the PC needs to match the dummy frame's
+   breakpoint.  */
+
+static struct frame_id
+arm_dummy_id (struct gdbarch *gdbarch, struct frame_info *this_frame)
+{
+  return frame_id_build (get_frame_register_unsigned (this_frame,
+                                                     ARM_SP_REGNUM),
+                        get_frame_pc (this_frame));
+}
+
+/* Given THIS_FRAME, find the previous frame's resume PC (which will
+   be used to construct the previous frame's ID, after looking up the
+   containing function).  */
+
+static CORE_ADDR
+arm_unwind_pc (struct gdbarch *gdbarch, struct frame_info *this_frame)
+{
+  CORE_ADDR pc;
+  pc = frame_unwind_register_unsigned (this_frame, ARM_PC_REGNUM);
+  return arm_addr_bits_remove (gdbarch, pc);
+}
+
+static CORE_ADDR
+arm_unwind_sp (struct gdbarch *gdbarch, struct frame_info *this_frame)
+{
+  return frame_unwind_register_unsigned (this_frame, ARM_SP_REGNUM);
+}
+
+static struct value *
+arm_dwarf2_prev_register (struct frame_info *this_frame, void **this_cache,
+                         int regnum)
+{
+  struct gdbarch * gdbarch = get_frame_arch (this_frame);
+  CORE_ADDR lr, cpsr;
+  ULONGEST t_bit = arm_psr_thumb_bit (gdbarch);
+
+  switch (regnum)
+    {
+    case ARM_PC_REGNUM:
+      /* The PC is normally copied from the return column, which
+        describes saves of LR.  However, that version may have an
+        extra bit set to indicate Thumb state.  The bit is not
+        part of the PC.  */
+      lr = frame_unwind_register_unsigned (this_frame, ARM_LR_REGNUM);
+      return frame_unwind_got_constant (this_frame, regnum,
+                                       arm_addr_bits_remove (gdbarch, lr));
+
+    case ARM_PS_REGNUM:
+      /* Reconstruct the T bit; see arm_prologue_prev_register for details.  */
+      cpsr = get_frame_register_unsigned (this_frame, regnum);
+      lr = frame_unwind_register_unsigned (this_frame, ARM_LR_REGNUM);
+      if (IS_THUMB_ADDR (lr))
+       cpsr |= t_bit;
+      else
+       cpsr &= ~t_bit;
+      return frame_unwind_got_constant (this_frame, regnum, cpsr);
+
+    default:
+      internal_error (__FILE__, __LINE__,
+                     _("Unexpected register %d"), regnum);
+    }
+}
+
+static void
+arm_dwarf2_frame_init_reg (struct gdbarch *gdbarch, int regnum,
+                          struct dwarf2_frame_state_reg *reg,
+                          struct frame_info *this_frame)
+{
+  switch (regnum)
+    {
+    case ARM_PC_REGNUM:
+    case ARM_PS_REGNUM:
+      reg->how = DWARF2_FRAME_REG_FN;
+      reg->loc.fn = arm_dwarf2_prev_register;
+      break;
+    case ARM_SP_REGNUM:
+      reg->how = DWARF2_FRAME_REG_CFA;
+      break;
+    }
+}
+
+/* Return true if we are in the function's epilogue, i.e. after the
+   instruction that destroyed the function's stack frame.  */
+
+static int
+thumb_in_function_epilogue_p (struct gdbarch *gdbarch, CORE_ADDR pc)
+{
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  unsigned int insn, insn2;
+  int found_return = 0, found_stack_adjust = 0;
+  CORE_ADDR func_start, func_end;
+  CORE_ADDR scan_pc;
+  gdb_byte buf[4];
+
+  if (!find_pc_partial_function (pc, NULL, &func_start, &func_end))
     return 0;
-  return gdbarch_tdep (gdbarch)->fp_model == ARM_FLOAT_VFP;
+
+  /* The epilogue is a sequence of instructions along the following lines:
+
+    - add stack frame size to SP or FP
+    - [if frame pointer used] restore SP from FP
+    - restore registers from SP [may include PC]
+    - a return-type instruction [if PC wasn't already restored]
+
+    In a first pass, we scan forward from the current PC and verify the
+    instructions we find as compatible with this sequence, ending in a
+    return instruction.
+
+    However, this is not sufficient to distinguish indirect function calls
+    within a function from indirect tail calls in the epilogue in some cases.
+    Therefore, if we didn't already find any SP-changing instruction during
+    forward scan, we add a backward scanning heuristic to ensure we actually
+    are in the epilogue.  */
+
+  scan_pc = pc;
+  while (scan_pc < func_end && !found_return)
+    {
+      if (target_read_memory (scan_pc, buf, 2))
+       break;
+
+      scan_pc += 2;
+      insn = extract_unsigned_integer (buf, 2, byte_order_for_code);
+
+      if ((insn & 0xff80) == 0x4700)  /* bx <Rm> */
+       found_return = 1;
+      else if (insn == 0x46f7)  /* mov pc, lr */
+       found_return = 1;
+      else if (insn == 0x46bd)  /* mov sp, r7 */
+       found_stack_adjust = 1;
+      else if ((insn & 0xff00) == 0xb000)  /* add sp, imm or sub sp, imm  */
+       found_stack_adjust = 1;
+      else if ((insn & 0xfe00) == 0xbc00)  /* pop <registers> */
+       {
+         found_stack_adjust = 1;
+         if (insn & 0x0100)  /* <registers> include PC.  */
+           found_return = 1;
+       }
+      else if (thumb_insn_size (insn) == 4)  /* 32-bit Thumb-2 instruction */
+       {
+         if (target_read_memory (scan_pc, buf, 2))
+           break;
+
+         scan_pc += 2;
+         insn2 = extract_unsigned_integer (buf, 2, byte_order_for_code);
+
+         if (insn == 0xe8bd)  /* ldm.w sp!, <registers> */
+           {
+             found_stack_adjust = 1;
+             if (insn2 & 0x8000)  /* <registers> include PC.  */
+               found_return = 1;
+           }
+         else if (insn == 0xf85d  /* ldr.w <Rt>, [sp], #4 */
+                  && (insn2 & 0x0fff) == 0x0b04)
+           {
+             found_stack_adjust = 1;
+             if ((insn2 & 0xf000) == 0xf000) /* <Rt> is PC.  */
+               found_return = 1;
+           }
+         else if ((insn & 0xffbf) == 0xecbd  /* vldm sp!, <list> */
+                  && (insn2 & 0x0e00) == 0x0a00)
+           found_stack_adjust = 1;
+         else
+           break;
+       }
+      else
+       break;
+    }
+
+  if (!found_return)
+    return 0;
+
+  /* Since any instruction in the epilogue sequence, with the possible
+     exception of return itself, updates the stack pointer, we need to
+     scan backwards for at most one instruction.  Try either a 16-bit or
+     a 32-bit instruction.  This is just a heuristic, so we do not worry
+     too much about false positives.  */
+
+  if (!found_stack_adjust)
+    {
+      if (pc - 4 < func_start)
+       return 0;
+      if (target_read_memory (pc - 4, buf, 4))
+       return 0;
+
+      insn = extract_unsigned_integer (buf, 2, byte_order_for_code);
+      insn2 = extract_unsigned_integer (buf + 2, 2, byte_order_for_code);
+
+      if (insn2 == 0x46bd)  /* mov sp, r7 */
+       found_stack_adjust = 1;
+      else if ((insn2 & 0xff00) == 0xb000)  /* add sp, imm or sub sp, imm  */
+       found_stack_adjust = 1;
+      else if ((insn2 & 0xff00) == 0xbc00)  /* pop <registers> without PC */
+       found_stack_adjust = 1;
+      else if (insn == 0xe8bd)  /* ldm.w sp!, <registers> */
+       found_stack_adjust = 1;
+      else if (insn == 0xf85d  /* ldr.w <Rt>, [sp], #4 */
+              && (insn2 & 0x0fff) == 0x0b04)
+       found_stack_adjust = 1;
+      else if ((insn & 0xffbf) == 0xecbd  /* vldm sp!, <list> */
+              && (insn2 & 0x0e00) == 0x0a00)
+       found_stack_adjust = 1;
+    }
+
+  return found_stack_adjust;
+}
+
+/* Return true if we are in the function's epilogue, i.e. after the
+   instruction that destroyed the function's stack frame.  */
+
+static int
+arm_in_function_epilogue_p (struct gdbarch *gdbarch, CORE_ADDR pc)
+{
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  unsigned int insn;
+  int found_return, found_stack_adjust;
+  CORE_ADDR func_start, func_end;
+
+  if (arm_pc_is_thumb (gdbarch, pc))
+    return thumb_in_function_epilogue_p (gdbarch, pc);
+
+  if (!find_pc_partial_function (pc, NULL, &func_start, &func_end))
+    return 0;
+
+  /* We are in the epilogue if the previous instruction was a stack
+     adjustment and the next instruction is a possible return (bx, mov
+     pc, or pop).  We could have to scan backwards to find the stack
+     adjustment, or forwards to find the return, but this is a decent
+     approximation.  First scan forwards.  */
+
+  found_return = 0;
+  insn = read_memory_unsigned_integer (pc, 4, byte_order_for_code);
+  if (bits (insn, 28, 31) != INST_NV)
+    {
+      if ((insn & 0x0ffffff0) == 0x012fff10)
+       /* BX.  */
+       found_return = 1;
+      else if ((insn & 0x0ffffff0) == 0x01a0f000)
+       /* MOV PC.  */
+       found_return = 1;
+      else if ((insn & 0x0fff0000) == 0x08bd0000
+         && (insn & 0x0000c000) != 0)
+       /* POP (LDMIA), including PC or LR.  */
+       found_return = 1;
+    }
+
+  if (!found_return)
+    return 0;
+
+  /* Scan backwards.  This is just a heuristic, so do not worry about
+     false positives from mode changes.  */
+
+  if (pc < func_start + 4)
+    return 0;
+
+  found_stack_adjust = 0;
+  insn = read_memory_unsigned_integer (pc - 4, 4, byte_order_for_code);
+  if (bits (insn, 28, 31) != INST_NV)
+    {
+      if ((insn & 0x0df0f000) == 0x0080d000)
+       /* ADD SP (register or immediate).  */
+       found_stack_adjust = 1;
+      else if ((insn & 0x0df0f000) == 0x0040d000)
+       /* SUB SP (register or immediate).  */
+       found_stack_adjust = 1;
+      else if ((insn & 0x0ffffff0) == 0x01a0d000)
+       /* MOV SP.  */
+       found_stack_adjust = 1;
+      else if ((insn & 0x0fff0000) == 0x08bd0000)
+       /* POP (LDMIA).  */
+       found_stack_adjust = 1;
+    }
+
+  if (found_stack_adjust)
+    return 1;
+
+  return 0;
+}
+
+
+/* When arguments must be pushed onto the stack, they go on in reverse
+   order.  The code below implements a FILO (stack) to do this.  */
+
+struct stack_item
+{
+  int len;
+  struct stack_item *prev;
+  void *data;
+};
+
+static struct stack_item *
+push_stack_item (struct stack_item *prev, const void *contents, int len)
+{
+  struct stack_item *si;
+  si = xmalloc (sizeof (struct stack_item));
+  si->data = xmalloc (len);
+  si->len = len;
+  si->prev = prev;
+  memcpy (si->data, contents, len);
+  return si;
+}
+
+static struct stack_item *
+pop_stack_item (struct stack_item *si)
+{
+  struct stack_item *dead = si;
+  si = si->prev;
+  xfree (dead->data);
+  xfree (dead);
+  return si;
+}
+
+
+/* Return the alignment (in bytes) of the given type.  */
+
+static int
+arm_type_align (struct type *t)
+{
+  int n;
+  int align;
+  int falign;
+
+  t = check_typedef (t);
+  switch (TYPE_CODE (t))
+    {
+    default:
+      /* Should never happen.  */
+      internal_error (__FILE__, __LINE__, _("unknown type alignment"));
+      return 4;
+
+    case TYPE_CODE_PTR:
+    case TYPE_CODE_ENUM:
+    case TYPE_CODE_INT:
+    case TYPE_CODE_FLT:
+    case TYPE_CODE_SET:
+    case TYPE_CODE_RANGE:
+    case TYPE_CODE_BITSTRING:
+    case TYPE_CODE_REF:
+    case TYPE_CODE_CHAR:
+    case TYPE_CODE_BOOL:
+      return TYPE_LENGTH (t);
+
+    case TYPE_CODE_ARRAY:
+    case TYPE_CODE_COMPLEX:
+      /* TODO: What about vector types?  */
+      return arm_type_align (TYPE_TARGET_TYPE (t));
+
+    case TYPE_CODE_STRUCT:
+    case TYPE_CODE_UNION:
+      align = 1;
+      for (n = 0; n < TYPE_NFIELDS (t); n++)
+       {
+         falign = arm_type_align (TYPE_FIELD_TYPE (t, n));
+         if (falign > align)
+           align = falign;
+       }
+      return align;
+    }
+}
+
+/* Possible base types for a candidate for passing and returning in
+   VFP registers.  */
+
+enum arm_vfp_cprc_base_type
+{
+  VFP_CPRC_UNKNOWN,
+  VFP_CPRC_SINGLE,
+  VFP_CPRC_DOUBLE,
+  VFP_CPRC_VEC64,
+  VFP_CPRC_VEC128
+};
+
+/* The length of one element of base type B.  */
+
+static unsigned
+arm_vfp_cprc_unit_length (enum arm_vfp_cprc_base_type b)
+{
+  switch (b)
+    {
+    case VFP_CPRC_SINGLE:
+      return 4;
+    case VFP_CPRC_DOUBLE:
+      return 8;
+    case VFP_CPRC_VEC64:
+      return 8;
+    case VFP_CPRC_VEC128:
+      return 16;
+    default:
+      internal_error (__FILE__, __LINE__, _("Invalid VFP CPRC type: %d."),
+                     (int) b);
+    }
+}
+
+/* The character ('s', 'd' or 'q') for the type of VFP register used
+   for passing base type B.  */
+
+static int
+arm_vfp_cprc_reg_char (enum arm_vfp_cprc_base_type b)
+{
+  switch (b)
+    {
+    case VFP_CPRC_SINGLE:
+      return 's';
+    case VFP_CPRC_DOUBLE:
+      return 'd';
+    case VFP_CPRC_VEC64:
+      return 'd';
+    case VFP_CPRC_VEC128:
+      return 'q';
+    default:
+      internal_error (__FILE__, __LINE__, _("Invalid VFP CPRC type: %d."),
+                     (int) b);
+    }
+}
+
+/* Determine whether T may be part of a candidate for passing and
+   returning in VFP registers, ignoring the limit on the total number
+   of components.  If *BASE_TYPE is VFP_CPRC_UNKNOWN, set it to the
+   classification of the first valid component found; if it is not
+   VFP_CPRC_UNKNOWN, all components must have the same classification
+   as *BASE_TYPE.  If it is found that T contains a type not permitted
+   for passing and returning in VFP registers, a type differently
+   classified from *BASE_TYPE, or two types differently classified
+   from each other, return -1, otherwise return the total number of
+   base-type elements found (possibly 0 in an empty structure or
+   array).  Vectors and complex types are not currently supported,
+   matching the generic AAPCS support.  */
+
+static int
+arm_vfp_cprc_sub_candidate (struct type *t,
+                           enum arm_vfp_cprc_base_type *base_type)
+{
+  t = check_typedef (t);
+  switch (TYPE_CODE (t))
+    {
+    case TYPE_CODE_FLT:
+      switch (TYPE_LENGTH (t))
+       {
+       case 4:
+         if (*base_type == VFP_CPRC_UNKNOWN)
+           *base_type = VFP_CPRC_SINGLE;
+         else if (*base_type != VFP_CPRC_SINGLE)
+           return -1;
+         return 1;
+
+       case 8:
+         if (*base_type == VFP_CPRC_UNKNOWN)
+           *base_type = VFP_CPRC_DOUBLE;
+         else if (*base_type != VFP_CPRC_DOUBLE)
+           return -1;
+         return 1;
+
+       default:
+         return -1;
+       }
+      break;
+
+    case TYPE_CODE_ARRAY:
+      {
+       int count;
+       unsigned unitlen;
+       count = arm_vfp_cprc_sub_candidate (TYPE_TARGET_TYPE (t), base_type);
+       if (count == -1)
+         return -1;
+       if (TYPE_LENGTH (t) == 0)
+         {
+           gdb_assert (count == 0);
+           return 0;
+         }
+       else if (count == 0)
+         return -1;
+       unitlen = arm_vfp_cprc_unit_length (*base_type);
+       gdb_assert ((TYPE_LENGTH (t) % unitlen) == 0);
+       return TYPE_LENGTH (t) / unitlen;
+      }
+      break;
+
+    case TYPE_CODE_STRUCT:
+      {
+       int count = 0;
+       unsigned unitlen;
+       int i;
+       for (i = 0; i < TYPE_NFIELDS (t); i++)
+         {
+           int sub_count = arm_vfp_cprc_sub_candidate (TYPE_FIELD_TYPE (t, i),
+                                                       base_type);
+           if (sub_count == -1)
+             return -1;
+           count += sub_count;
+         }
+       if (TYPE_LENGTH (t) == 0)
+         {
+           gdb_assert (count == 0);
+           return 0;
+         }
+       else if (count == 0)
+         return -1;
+       unitlen = arm_vfp_cprc_unit_length (*base_type);
+       if (TYPE_LENGTH (t) != unitlen * count)
+         return -1;
+       return count;
+      }
+
+    case TYPE_CODE_UNION:
+      {
+       int count = 0;
+       unsigned unitlen;
+       int i;
+       for (i = 0; i < TYPE_NFIELDS (t); i++)
+         {
+           int sub_count = arm_vfp_cprc_sub_candidate (TYPE_FIELD_TYPE (t, i),
+                                                       base_type);
+           if (sub_count == -1)
+             return -1;
+           count = (count > sub_count ? count : sub_count);
+         }
+       if (TYPE_LENGTH (t) == 0)
+         {
+           gdb_assert (count == 0);
+           return 0;
+         }
+       else if (count == 0)
+         return -1;
+       unitlen = arm_vfp_cprc_unit_length (*base_type);
+       if (TYPE_LENGTH (t) != unitlen * count)
+         return -1;
+       return count;
+      }
+
+    default:
+      break;
+    }
+
+  return -1;
+}
+
+/* Determine whether T is a VFP co-processor register candidate (CPRC)
+   if passed to or returned from a non-variadic function with the VFP
+   ABI in effect.  Return 1 if it is, 0 otherwise.  If it is, set
+   *BASE_TYPE to the base type for T and *COUNT to the number of
+   elements of that base type before returning.  */
+
+static int
+arm_vfp_call_candidate (struct type *t, enum arm_vfp_cprc_base_type *base_type,
+                       int *count)
+{
+  enum arm_vfp_cprc_base_type b = VFP_CPRC_UNKNOWN;
+  int c = arm_vfp_cprc_sub_candidate (t, &b);
+  if (c <= 0 || c > 4)
+    return 0;
+  *base_type = b;
+  *count = c;
+  return 1;
+}
+
+/* Return 1 if the VFP ABI should be used for passing arguments to and
+   returning values from a function of type FUNC_TYPE, 0
+   otherwise.  */
+
+static int
+arm_vfp_abi_for_function (struct gdbarch *gdbarch, struct type *func_type)
+{
+  struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
+  /* Variadic functions always use the base ABI.  Assume that functions
+     without debug info are not variadic.  */
+  if (func_type && TYPE_VARARGS (check_typedef (func_type)))
+    return 0;
+  /* The VFP ABI is only supported as a variant of AAPCS.  */
+  if (tdep->arm_abi != ARM_ABI_AAPCS)
+    return 0;
+  return gdbarch_tdep (gdbarch)->fp_model == ARM_FLOAT_VFP;
+}
+
+/* We currently only support passing parameters in integer registers, which
+   conforms with GCC's default model, and VFP argument passing following
+   the VFP variant of AAPCS.  Several other variants exist and
+   we should probably support some of them based on the selected ABI.  */
+
+static CORE_ADDR
+arm_push_dummy_call (struct gdbarch *gdbarch, struct value *function,
+                    struct regcache *regcache, CORE_ADDR bp_addr, int nargs,
+                    struct value **args, CORE_ADDR sp, int struct_return,
+                    CORE_ADDR struct_addr)
+{
+  enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
+  int argnum;
+  int argreg;
+  int nstack;
+  struct stack_item *si = NULL;
+  int use_vfp_abi;
+  struct type *ftype;
+  unsigned vfp_regs_free = (1 << 16) - 1;
+
+  /* Determine the type of this function and whether the VFP ABI
+     applies.  */
+  ftype = check_typedef (value_type (function));
+  if (TYPE_CODE (ftype) == TYPE_CODE_PTR)
+    ftype = check_typedef (TYPE_TARGET_TYPE (ftype));
+  use_vfp_abi = arm_vfp_abi_for_function (gdbarch, ftype);
+
+  /* Set the return address.  For the ARM, the return breakpoint is
+     always at BP_ADDR.  */
+  if (arm_pc_is_thumb (gdbarch, bp_addr))
+    bp_addr |= 1;
+  regcache_cooked_write_unsigned (regcache, ARM_LR_REGNUM, bp_addr);
+
+  /* Walk through the list of args and determine how large a temporary
+     stack is required.  Need to take care here as structs may be
+     passed on the stack, and we have to push them.  */
+  nstack = 0;
+
+  argreg = ARM_A1_REGNUM;
+  nstack = 0;
+
+  /* The struct_return pointer occupies the first parameter
+     passing register.  */
+  if (struct_return)
+    {
+      if (arm_debug)
+       fprintf_unfiltered (gdb_stdlog, "struct return in %s = %s\n",
+                           gdbarch_register_name (gdbarch, argreg),
+                           paddress (gdbarch, struct_addr));
+      regcache_cooked_write_unsigned (regcache, argreg, struct_addr);
+      argreg++;
+    }
+
+  for (argnum = 0; argnum < nargs; argnum++)
+    {
+      int len;
+      struct type *arg_type;
+      struct type *target_type;
+      enum type_code typecode;
+      const bfd_byte *val;
+      int align;
+      enum arm_vfp_cprc_base_type vfp_base_type;
+      int vfp_base_count;
+      int may_use_core_reg = 1;
+
+      arg_type = check_typedef (value_type (args[argnum]));
+      len = TYPE_LENGTH (arg_type);
+      target_type = TYPE_TARGET_TYPE (arg_type);
+      typecode = TYPE_CODE (arg_type);
+      val = value_contents (args[argnum]);
+
+      align = arm_type_align (arg_type);
+      /* Round alignment up to a whole number of words.  */
+      align = (align + INT_REGISTER_SIZE - 1) & ~(INT_REGISTER_SIZE - 1);
+      /* Different ABIs have different maximum alignments.  */
+      if (gdbarch_tdep (gdbarch)->arm_abi == ARM_ABI_APCS)
+       {
+         /* The APCS ABI only requires word alignment.  */
+         align = INT_REGISTER_SIZE;
+       }
+      else
+       {
+         /* The AAPCS requires at most doubleword alignment.  */
+         if (align > INT_REGISTER_SIZE * 2)
+           align = INT_REGISTER_SIZE * 2;
+       }
+
+      if (use_vfp_abi
+         && arm_vfp_call_candidate (arg_type, &vfp_base_type,
+                                    &vfp_base_count))
+       {
+         int regno;
+         int unit_length;
+         int shift;
+         unsigned mask;
+
+         /* Because this is a CPRC it cannot go in a core register or
+            cause a core register to be skipped for alignment.
+            Either it goes in VFP registers and the rest of this loop
+            iteration is skipped for this argument, or it goes on the
+            stack (and the stack alignment code is correct for this
+            case).  */
+         may_use_core_reg = 0;
+
+         unit_length = arm_vfp_cprc_unit_length (vfp_base_type);
+         shift = unit_length / 4;
+         mask = (1 << (shift * vfp_base_count)) - 1;
+         for (regno = 0; regno < 16; regno += shift)
+           if (((vfp_regs_free >> regno) & mask) == mask)
+             break;
+
+         if (regno < 16)
+           {
+             int reg_char;
+             int reg_scaled;
+             int i;
+
+             vfp_regs_free &= ~(mask << regno);
+             reg_scaled = regno / shift;
+             reg_char = arm_vfp_cprc_reg_char (vfp_base_type);
+             for (i = 0; i < vfp_base_count; i++)
+               {
+                 char name_buf[4];
+                 int regnum;
+                 if (reg_char == 'q')
+                   arm_neon_quad_write (gdbarch, regcache, reg_scaled + i,
+                                        val + i * unit_length);
+                 else
+                   {
+                     sprintf (name_buf, "%c%d", reg_char, reg_scaled + i);
+                     regnum = user_reg_map_name_to_regnum (gdbarch, name_buf,
+                                                           strlen (name_buf));
+                     regcache_cooked_write (regcache, regnum,
+                                            val + i * unit_length);
+                   }
+               }
+             continue;
+           }
+         else
+           {
+             /* This CPRC could not go in VFP registers, so all VFP
+                registers are now marked as used.  */
+             vfp_regs_free = 0;
+           }
+       }
+
+      /* Push stack padding for dowubleword alignment.  */
+      if (nstack & (align - 1))
+       {
+         si = push_stack_item (si, val, INT_REGISTER_SIZE);
+         nstack += INT_REGISTER_SIZE;
+       }
+      
+      /* Doubleword aligned quantities must go in even register pairs.  */
+      if (may_use_core_reg
+         && argreg <= ARM_LAST_ARG_REGNUM
+         && align > INT_REGISTER_SIZE
+         && argreg & 1)
+       argreg++;
+
+      /* If the argument is a pointer to a function, and it is a
+        Thumb function, create a LOCAL copy of the value and set
+        the THUMB bit in it.  */
+      if (TYPE_CODE_PTR == typecode
+         && target_type != NULL
+         && TYPE_CODE_FUNC == TYPE_CODE (check_typedef (target_type)))
+       {
+         CORE_ADDR regval = extract_unsigned_integer (val, len, byte_order);
+         if (arm_pc_is_thumb (gdbarch, regval))
+           {
+             bfd_byte *copy = alloca (len);
+             store_unsigned_integer (copy, len, byte_order,
+                                     MAKE_THUMB_ADDR (regval));
+             val = copy;
+           }
+       }
+
+      /* Copy the argument to general registers or the stack in
+        register-sized pieces.  Large arguments are split between
+        registers and stack.  */
+      while (len > 0)
+       {
+         int partial_len = len < INT_REGISTER_SIZE ? len : INT_REGISTER_SIZE;
+
+         if (may_use_core_reg && argreg <= ARM_LAST_ARG_REGNUM)
+           {
+             /* The argument is being passed in a general purpose
+                register.  */
+             CORE_ADDR regval
+               = extract_unsigned_integer (val, partial_len, byte_order);
+             if (byte_order == BFD_ENDIAN_BIG)
+               regval <<= (INT_REGISTER_SIZE - partial_len) * 8;
+             if (arm_debug)
+               fprintf_unfiltered (gdb_stdlog, "arg %d in %s = 0x%s\n",
+                                   argnum,
+                                   gdbarch_register_name
+                                     (gdbarch, argreg),
+                                   phex (regval, INT_REGISTER_SIZE));
+             regcache_cooked_write_unsigned (regcache, argreg, regval);
+             argreg++;
+           }
+         else
+           {
+             /* Push the arguments onto the stack.  */
+             if (arm_debug)
+               fprintf_unfiltered (gdb_stdlog, "arg %d @ sp + %d\n",
+                                   argnum, nstack);
+             si = push_stack_item (si, val, INT_REGISTER_SIZE);
+             nstack += INT_REGISTER_SIZE;
+           }
+             
+         len -= partial_len;
+         val += partial_len;
+       }
+    }
+  /* If we have an odd number of words to push, then decrement the stack
+     by one word now, so first stack argument will be dword aligned.  */
+  if (nstack & 4)
+    sp -= 4;
+
+  while (si)
+    {
+      sp -= si->len;
+      write_memory (sp, si->data, si->len);
+      si = pop_stack_item (si);
+    }
+
+  /* Finally, update teh SP register.  */
+  regcache_cooked_write_unsigned (regcache, ARM_SP_REGNUM, sp);
+
+  return sp;
+}
+
+
+/* Always align the frame to an 8-byte boundary.  This is required on
+   some platforms and harmless on the rest.  */
+
+static CORE_ADDR
+arm_frame_align (struct gdbarch *gdbarch, CORE_ADDR sp)
+{
+  /* Align the stack to eight bytes.  */
+  return sp & ~ (CORE_ADDR) 7;
+}
+
+static void
+print_fpu_flags (int flags)
+{
+  if (flags & (1 << 0))
+    fputs ("IVO ", stdout);
+  if (flags & (1 << 1))
+    fputs ("DVZ ", stdout);
+  if (flags & (1 << 2))
+    fputs ("OFL ", stdout);
+  if (flags & (1 << 3))
+    fputs ("UFL ", stdout);
+  if (flags & (1 << 4))
+    fputs ("INX ", stdout);
+  putchar ('\n');
+}
+
+/* Print interesting information about the floating point processor
+   (if present) or emulator.  */
+static void
+arm_print_float_info (struct gdbarch *gdbarch, struct ui_file *file,
+                     struct frame_info *frame, const char *args)
+{
+  unsigned long status = get_frame_register_unsigned (frame, ARM_FPS_REGNUM);
+  int type;
+
+  type = (status >> 24) & 127;
+  if (status & (1 << 31))
+    printf (_("Hardware FPU type %d\n"), type);
+  else
+    printf (_("Software FPU type %d\n"), type);
+  /* i18n: [floating point unit] mask */
+  fputs (_("mask: "), stdout);
+  print_fpu_flags (status >> 16);
+  /* i18n: [floating point unit] flags */
+  fputs (_("flags: "), stdout);
+  print_fpu_flags (status);
+}
+
+/* Construct the ARM extended floating point type.  */
+static struct type *
+arm_ext_type (struct gdbarch *gdbarch)
+{
+  struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
+
+  if (!tdep->arm_ext_type)
+    tdep->arm_ext_type
+      = arch_float_type (gdbarch, -1, "builtin_type_arm_ext",
+                        floatformats_arm_ext);
+
+  return tdep->arm_ext_type;
+}
+
+static struct type *
+arm_neon_double_type (struct gdbarch *gdbarch)
+{
+  struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
+
+  if (tdep->neon_double_type == NULL)
+    {
+      struct type *t, *elem;
+
+      t = arch_composite_type (gdbarch, "__gdb_builtin_type_neon_d",
+                              TYPE_CODE_UNION);
+      elem = builtin_type (gdbarch)->builtin_uint8;
+      append_composite_type_field (t, "u8", init_vector_type (elem, 8));
+      elem = builtin_type (gdbarch)->builtin_uint16;
+      append_composite_type_field (t, "u16", init_vector_type (elem, 4));
+      elem = builtin_type (gdbarch)->builtin_uint32;
+      append_composite_type_field (t, "u32", init_vector_type (elem, 2));
+      elem = builtin_type (gdbarch)->builtin_uint64;
+      append_composite_type_field (t, "u64", elem);
+      elem = builtin_type (gdbarch)->builtin_float;
+      append_composite_type_field (t, "f32", init_vector_type (elem, 2));
+      elem = builtin_type (gdbarch)->builtin_double;
+      append_composite_type_field (t, "f64", elem);
+
+      TYPE_VECTOR (t) = 1;
+      TYPE_NAME (t) = "neon_d";
+      tdep->neon_double_type = t;
+    }
+
+  return tdep->neon_double_type;
+}
+
+/* FIXME: The vector types are not correctly ordered on big-endian
+   targets.  Just as s0 is the low bits of d0, d0[0] is also the low
+   bits of d0 - regardless of what unit size is being held in d0.  So
+   the offset of the first uint8 in d0 is 7, but the offset of the
+   first float is 4.  This code works as-is for little-endian
+   targets.  */
+
+static struct type *
+arm_neon_quad_type (struct gdbarch *gdbarch)
+{
+  struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
+
+  if (tdep->neon_quad_type == NULL)
+    {
+      struct type *t, *elem;
+
+      t = arch_composite_type (gdbarch, "__gdb_builtin_type_neon_q",
+                              TYPE_CODE_UNION);
+      elem = builtin_type (gdbarch)->builtin_uint8;
+      append_composite_type_field (t, "u8", init_vector_type (elem, 16));
+      elem = builtin_type (gdbarch)->builtin_uint16;
+      append_composite_type_field (t, "u16", init_vector_type (elem, 8));
+      elem = builtin_type (gdbarch)->builtin_uint32;
+      append_composite_type_field (t, "u32", init_vector_type (elem, 4));
+      elem = builtin_type (gdbarch)->builtin_uint64;
+      append_composite_type_field (t, "u64", init_vector_type (elem, 2));
+      elem = builtin_type (gdbarch)->builtin_float;
+      append_composite_type_field (t, "f32", init_vector_type (elem, 4));
+      elem = builtin_type (gdbarch)->builtin_double;
+      append_composite_type_field (t, "f64", init_vector_type (elem, 2));
+
+      TYPE_VECTOR (t) = 1;
+      TYPE_NAME (t) = "neon_q";
+      tdep->neon_quad_type = t;
+    }
+
+  return tdep->neon_quad_type;
+}
+
+/* Return the GDB type object for the "standard" data type of data in
+   register N.  */
+
+static struct type *
+arm_register_type (struct gdbarch *gdbarch, int regnum)
+{
+  int num_regs = gdbarch_num_regs (gdbarch);
+
+  if (gdbarch_tdep (gdbarch)->have_vfp_pseudos
+      && regnum >= num_regs && regnum < num_regs + 32)
+    return builtin_type (gdbarch)->builtin_float;
+
+  if (gdbarch_tdep (gdbarch)->have_neon_pseudos
+      && regnum >= num_regs + 32 && regnum < num_regs + 32 + 16)
+    return arm_neon_quad_type (gdbarch);
+
+  /* If the target description has register information, we are only
+     in this function so that we can override the types of
+     double-precision registers for NEON.  */
+  if (tdesc_has_registers (gdbarch_target_desc (gdbarch)))
+    {
+      struct type *t = tdesc_register_type (gdbarch, regnum);
+
+      if (regnum >= ARM_D0_REGNUM && regnum < ARM_D0_REGNUM + 32
+         && TYPE_CODE (t) == TYPE_CODE_FLT
+         && gdbarch_tdep (gdbarch)->have_neon)
+       return arm_neon_double_type (gdbarch);
+      else
+       return t;
+    }
+
+  if (regnum >= ARM_F0_REGNUM && regnum < ARM_F0_REGNUM + NUM_FREGS)
+    {
+      if (!gdbarch_tdep (gdbarch)->have_fpa_registers)
+       return builtin_type (gdbarch)->builtin_void;
+
+      return arm_ext_type (gdbarch);
+    }
+  else if (regnum == ARM_SP_REGNUM)
+    return builtin_type (gdbarch)->builtin_data_ptr;
+  else if (regnum == ARM_PC_REGNUM)
+    return builtin_type (gdbarch)->builtin_func_ptr;
+  else if (regnum >= ARRAY_SIZE (arm_register_names))
+    /* These registers are only supported on targets which supply
+       an XML description.  */
+    return builtin_type (gdbarch)->builtin_int0;
+  else
+    return builtin_type (gdbarch)->builtin_uint32;
+}
+
+/* Map a DWARF register REGNUM onto the appropriate GDB register
+   number.  */
+
+static int
+arm_dwarf_reg_to_regnum (struct gdbarch *gdbarch, int reg)
+{
+  /* Core integer regs.  */
+  if (reg >= 0 && reg <= 15)
+    return reg;
+
+  /* Legacy FPA encoding.  These were once used in a way which
+     overlapped with VFP register numbering, so their use is
+     discouraged, but GDB doesn't support the ARM toolchain
+     which used them for VFP.  */
+  if (reg >= 16 && reg <= 23)
+    return ARM_F0_REGNUM + reg - 16;
+
+  /* New assignments for the FPA registers.  */
+  if (reg >= 96 && reg <= 103)
+    return ARM_F0_REGNUM + reg - 96;
+
+  /* WMMX register assignments.  */
+  if (reg >= 104 && reg <= 111)
+    return ARM_WCGR0_REGNUM + reg - 104;
+
+  if (reg >= 112 && reg <= 127)
+    return ARM_WR0_REGNUM + reg - 112;
+
+  if (reg >= 192 && reg <= 199)
+    return ARM_WC0_REGNUM + reg - 192;
+
+  /* VFP v2 registers.  A double precision value is actually
+     in d1 rather than s2, but the ABI only defines numbering
+     for the single precision registers.  This will "just work"
+     in GDB for little endian targets (we'll read eight bytes,
+     starting in s0 and then progressing to s1), but will be
+     reversed on big endian targets with VFP.  This won't
+     be a problem for the new Neon quad registers; you're supposed
+     to use DW_OP_piece for those.  */
+  if (reg >= 64 && reg <= 95)
+    {
+      char name_buf[4];
+
+      sprintf (name_buf, "s%d", reg - 64);
+      return user_reg_map_name_to_regnum (gdbarch, name_buf,
+                                         strlen (name_buf));
+    }
+
+  /* VFP v3 / Neon registers.  This range is also used for VFP v2
+     registers, except that it now describes d0 instead of s0.  */
+  if (reg >= 256 && reg <= 287)
+    {
+      char name_buf[4];
+
+      sprintf (name_buf, "d%d", reg - 256);
+      return user_reg_map_name_to_regnum (gdbarch, name_buf,
+                                         strlen (name_buf));
+    }
+
+  return -1;
+}
+
+/* Map GDB internal REGNUM onto the Arm simulator register numbers.  */
+static int
+arm_register_sim_regno (struct gdbarch *gdbarch, int regnum)
+{
+  int reg = regnum;
+  gdb_assert (reg >= 0 && reg < gdbarch_num_regs (gdbarch));
+
+  if (regnum >= ARM_WR0_REGNUM && regnum <= ARM_WR15_REGNUM)
+    return regnum - ARM_WR0_REGNUM + SIM_ARM_IWMMXT_COP0R0_REGNUM;
+
+  if (regnum >= ARM_WC0_REGNUM && regnum <= ARM_WC7_REGNUM)
+    return regnum - ARM_WC0_REGNUM + SIM_ARM_IWMMXT_COP1R0_REGNUM;
+
+  if (regnum >= ARM_WCGR0_REGNUM && regnum <= ARM_WCGR7_REGNUM)
+    return regnum - ARM_WCGR0_REGNUM + SIM_ARM_IWMMXT_COP1R8_REGNUM;
+
+  if (reg < NUM_GREGS)
+    return SIM_ARM_R0_REGNUM + reg;
+  reg -= NUM_GREGS;
+
+  if (reg < NUM_FREGS)
+    return SIM_ARM_FP0_REGNUM + reg;
+  reg -= NUM_FREGS;
+
+  if (reg < NUM_SREGS)
+    return SIM_ARM_FPS_REGNUM + reg;
+  reg -= NUM_SREGS;
+
+  internal_error (__FILE__, __LINE__, _("Bad REGNUM %d"), regnum);
+}
+
+/* NOTE: cagney/2001-08-20: Both convert_from_extended() and
+   convert_to_extended() use floatformat_arm_ext_littlebyte_bigword.
+   It is thought that this is is the floating-point register format on
+   little-endian systems.  */
+
+static void
+convert_from_extended (const struct floatformat *fmt, const void *ptr,
+                      void *dbl, int endianess)
+{
+  DOUBLEST d;
+
+  if (endianess == BFD_ENDIAN_BIG)
+    floatformat_to_doublest (&floatformat_arm_ext_big, ptr, &d);
+  else
+    floatformat_to_doublest (&floatformat_arm_ext_littlebyte_bigword,
+                            ptr, &d);
+  floatformat_from_doublest (fmt, &d, dbl);
+}
+
+static void
+convert_to_extended (const struct floatformat *fmt, void *dbl, const void *ptr,
+                    int endianess)
+{
+  DOUBLEST d;
+
+  floatformat_to_doublest (fmt, ptr, &d);
+  if (endianess == BFD_ENDIAN_BIG)
+    floatformat_from_doublest (&floatformat_arm_ext_big, &d, dbl);
+  else
+    floatformat_from_doublest (&floatformat_arm_ext_littlebyte_bigword,
+                              &d, dbl);
+}
+
+static int
+condition_true (unsigned long cond, unsigned long status_reg)
+{
+  if (cond == INST_AL || cond == INST_NV)
+    return 1;
+
+  switch (cond)
+    {
+    case INST_EQ:
+      return ((status_reg & FLAG_Z) != 0);
+    case INST_NE:
+      return ((status_reg & FLAG_Z) == 0);
+    case INST_CS:
+      return ((status_reg & FLAG_C) != 0);
+    case INST_CC:
+      return ((status_reg & FLAG_C) == 0);
+    case INST_MI:
+      return ((status_reg & FLAG_N) != 0);
+    case INST_PL:
+      return ((status_reg & FLAG_N) == 0);
+    case INST_VS:
+      return ((status_reg & FLAG_V) != 0);
+    case INST_VC:
+      return ((status_reg & FLAG_V) == 0);
+    case INST_HI:
+      return ((status_reg & (FLAG_C | FLAG_Z)) == FLAG_C);
+    case INST_LS:
+      return ((status_reg & (FLAG_C | FLAG_Z)) != FLAG_C);
+    case INST_GE:
+      return (((status_reg & FLAG_N) == 0) == ((status_reg & FLAG_V) == 0));
+    case INST_LT:
+      return (((status_reg & FLAG_N) == 0) != ((status_reg & FLAG_V) == 0));
+    case INST_GT:
+      return (((status_reg & FLAG_Z) == 0)
+             && (((status_reg & FLAG_N) == 0)
+                 == ((status_reg & FLAG_V) == 0)));
+    case INST_LE:
+      return (((status_reg & FLAG_Z) != 0)
+             || (((status_reg & FLAG_N) == 0)
+                 != ((status_reg & FLAG_V) == 0)));
+    }
+  return 1;
 }
 
-/* We currently only support passing parameters in integer registers, which
-   conforms with GCC's default model, and VFP argument passing following
-   the VFP variant of AAPCS.  Several other variants exist and
-   we should probably support some of them based on the selected ABI.  */
+static unsigned long
+shifted_reg_val (struct frame_info *frame, unsigned long inst, int carry,
+                unsigned long pc_val, unsigned long status_reg)
+{
+  unsigned long res, shift;
+  int rm = bits (inst, 0, 3);
+  unsigned long shifttype = bits (inst, 5, 6);
+
+  if (bit (inst, 4))
+    {
+      int rs = bits (inst, 8, 11);
+      shift = (rs == 15 ? pc_val + 8
+                       : get_frame_register_unsigned (frame, rs)) & 0xFF;
+    }
+  else
+    shift = bits (inst, 7, 11);
+
+  res = (rm == ARM_PC_REGNUM
+        ? (pc_val + (bit (inst, 4) ? 12 : 8))
+        : get_frame_register_unsigned (frame, rm));
+
+  switch (shifttype)
+    {
+    case 0:                    /* LSL */
+      res = shift >= 32 ? 0 : res << shift;
+      break;
+
+    case 1:                    /* LSR */
+      res = shift >= 32 ? 0 : res >> shift;
+      break;
+
+    case 2:                    /* ASR */
+      if (shift >= 32)
+       shift = 31;
+      res = ((res & 0x80000000L)
+            ? ~((~res) >> shift) : res >> shift);
+      break;
+
+    case 3:                    /* ROR/RRX */
+      shift &= 31;
+      if (shift == 0)
+       res = (res >> 1) | (carry ? 0x80000000L : 0);
+      else
+       res = (res >> shift) | (res << (32 - shift));
+      break;
+    }
+
+  return res & 0xffffffff;
+}
+
+/* Return number of 1-bits in VAL.  */
+
+static int
+bitcount (unsigned long val)
+{
+  int nbits;
+  for (nbits = 0; val != 0; nbits++)
+    val &= val - 1;            /* Delete rightmost 1-bit in val.  */
+  return nbits;
+}
+
+/* Return the size in bytes of the complete Thumb instruction whose
+   first halfword is INST1.  */
+
+static int
+thumb_insn_size (unsigned short inst1)
+{
+  if ((inst1 & 0xe000) == 0xe000 && (inst1 & 0x1800) != 0)
+    return 4;
+  else
+    return 2;
+}
+
+static int
+thumb_advance_itstate (unsigned int itstate)
+{
+  /* Preserve IT[7:5], the first three bits of the condition.  Shift
+     the upcoming condition flags left by one bit.  */
+  itstate = (itstate & 0xe0) | ((itstate << 1) & 0x1f);
+
+  /* If we have finished the IT block, clear the state.  */
+  if ((itstate & 0x0f) == 0)
+    itstate = 0;
+
+  return itstate;
+}
+
+/* Find the next PC after the current instruction executes.  In some
+   cases we can not statically determine the answer (see the IT state
+   handling in this function); in that case, a breakpoint may be
+   inserted in addition to the returned PC, which will be used to set
+   another breakpoint by our caller.  */
 
 static CORE_ADDR
-arm_push_dummy_call (struct gdbarch *gdbarch, struct value *function,
-                    struct regcache *regcache, CORE_ADDR bp_addr, int nargs,
-                    struct value **args, CORE_ADDR sp, int struct_return,
-                    CORE_ADDR struct_addr)
+thumb_get_next_pc_raw (struct frame_info *frame, CORE_ADDR pc)
 {
+  struct gdbarch *gdbarch = get_frame_arch (frame);
+  struct address_space *aspace = get_frame_address_space (frame);
   enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
-  int argnum;
-  int argreg;
-  int nstack;
-  struct stack_item *si = NULL;
-  int use_vfp_abi;
-  struct type *ftype;
-  unsigned vfp_regs_free = (1 << 16) - 1;
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  unsigned long pc_val = ((unsigned long) pc) + 4;     /* PC after prefetch */
+  unsigned short inst1;
+  CORE_ADDR nextpc = pc + 2;           /* Default is next instruction.  */
+  unsigned long offset;
+  ULONGEST status, itstate;
 
-  /* Determine the type of this function and whether the VFP ABI
-     applies.  */
-  ftype = check_typedef (value_type (function));
-  if (TYPE_CODE (ftype) == TYPE_CODE_PTR)
-    ftype = check_typedef (TYPE_TARGET_TYPE (ftype));
-  use_vfp_abi = arm_vfp_abi_for_function (gdbarch, ftype);
+  nextpc = MAKE_THUMB_ADDR (nextpc);
+  pc_val = MAKE_THUMB_ADDR (pc_val);
 
-  /* Set the return address.  For the ARM, the return breakpoint is
-     always at BP_ADDR.  */
-  if (arm_pc_is_thumb (gdbarch, bp_addr))
-    bp_addr |= 1;
-  regcache_cooked_write_unsigned (regcache, ARM_LR_REGNUM, bp_addr);
+  inst1 = read_memory_unsigned_integer (pc, 2, byte_order_for_code);
 
-  /* Walk through the list of args and determine how large a temporary
-     stack is required.  Need to take care here as structs may be
-     passed on the stack, and we have to to push them.  */
-  nstack = 0;
+  /* Thumb-2 conditional execution support.  There are eight bits in
+     the CPSR which describe conditional execution state.  Once
+     reconstructed (they're in a funny order), the low five bits
+     describe the low bit of the condition for each instruction and
+     how many instructions remain.  The high three bits describe the
+     base condition.  One of the low four bits will be set if an IT
+     block is active.  These bits read as zero on earlier
+     processors.  */
+  status = get_frame_register_unsigned (frame, ARM_PS_REGNUM);
+  itstate = ((status >> 8) & 0xfc) | ((status >> 25) & 0x3);
+
+  /* If-Then handling.  On GNU/Linux, where this routine is used, we
+     use an undefined instruction as a breakpoint.  Unlike BKPT, IT
+     can disable execution of the undefined instruction.  So we might
+     miss the breakpoint if we set it on a skipped conditional
+     instruction.  Because conditional instructions can change the
+     flags, affecting the execution of further instructions, we may
+     need to set two breakpoints.  */
+
+  if (gdbarch_tdep (gdbarch)->thumb2_breakpoint != NULL)
+    {
+      if ((inst1 & 0xff00) == 0xbf00 && (inst1 & 0x000f) != 0)
+       {
+         /* An IT instruction.  Because this instruction does not
+            modify the flags, we can accurately predict the next
+            executed instruction.  */
+         itstate = inst1 & 0x00ff;
+         pc += thumb_insn_size (inst1);
+
+         while (itstate != 0 && ! condition_true (itstate >> 4, status))
+           {
+             inst1 = read_memory_unsigned_integer (pc, 2,
+                                                   byte_order_for_code);
+             pc += thumb_insn_size (inst1);
+             itstate = thumb_advance_itstate (itstate);
+           }
+
+         return MAKE_THUMB_ADDR (pc);
+       }
+      else if (itstate != 0)
+       {
+         /* We are in a conditional block.  Check the condition.  */
+         if (! condition_true (itstate >> 4, status))
+           {
+             /* Advance to the next executed instruction.  */
+             pc += thumb_insn_size (inst1);
+             itstate = thumb_advance_itstate (itstate);
+
+             while (itstate != 0 && ! condition_true (itstate >> 4, status))
+               {
+                 inst1 = read_memory_unsigned_integer (pc, 2, 
+                                                       byte_order_for_code);
+                 pc += thumb_insn_size (inst1);
+                 itstate = thumb_advance_itstate (itstate);
+               }
+
+             return MAKE_THUMB_ADDR (pc);
+           }
+         else if ((itstate & 0x0f) == 0x08)
+           {
+             /* This is the last instruction of the conditional
+                block, and it is executed.  We can handle it normally
+                because the following instruction is not conditional,
+                and we must handle it normally because it is
+                permitted to branch.  Fall through.  */
+           }
+         else
+           {
+             int cond_negated;
+
+             /* There are conditional instructions after this one.
+                If this instruction modifies the flags, then we can
+                not predict what the next executed instruction will
+                be.  Fortunately, this instruction is architecturally
+                forbidden to branch; we know it will fall through.
+                Start by skipping past it.  */
+             pc += thumb_insn_size (inst1);
+             itstate = thumb_advance_itstate (itstate);
+
+             /* Set a breakpoint on the following instruction.  */
+             gdb_assert ((itstate & 0x0f) != 0);
+             arm_insert_single_step_breakpoint (gdbarch, aspace,
+                                                MAKE_THUMB_ADDR (pc));
+             cond_negated = (itstate >> 4) & 1;
+
+             /* Skip all following instructions with the same
+                condition.  If there is a later instruction in the IT
+                block with the opposite condition, set the other
+                breakpoint there.  If not, then set a breakpoint on
+                the instruction after the IT block.  */
+             do
+               {
+                 inst1 = read_memory_unsigned_integer (pc, 2,
+                                                       byte_order_for_code);
+                 pc += thumb_insn_size (inst1);
+                 itstate = thumb_advance_itstate (itstate);
+               }
+             while (itstate != 0 && ((itstate >> 4) & 1) == cond_negated);
+
+             return MAKE_THUMB_ADDR (pc);
+           }
+       }
+    }
+  else if (itstate & 0x0f)
+    {
+      /* We are in a conditional block.  Check the condition.  */
+      int cond = itstate >> 4;
+
+      if (! condition_true (cond, status))
+       /* Advance to the next instruction.  All the 32-bit
+          instructions share a common prefix.  */
+       return MAKE_THUMB_ADDR (pc + thumb_insn_size (inst1));
+
+      /* Otherwise, handle the instruction normally.  */
+    }
+
+  if ((inst1 & 0xff00) == 0xbd00)      /* pop {rlist, pc} */
+    {
+      CORE_ADDR sp;
+
+      /* Fetch the saved PC from the stack.  It's stored above
+         all of the other registers.  */
+      offset = bitcount (bits (inst1, 0, 7)) * INT_REGISTER_SIZE;
+      sp = get_frame_register_unsigned (frame, ARM_SP_REGNUM);
+      nextpc = read_memory_unsigned_integer (sp + offset, 4, byte_order);
+    }
+  else if ((inst1 & 0xf000) == 0xd000) /* conditional branch */
+    {
+      unsigned long cond = bits (inst1, 8, 11);
+      if (cond == 0x0f)  /* 0x0f = SWI */
+       {
+         struct gdbarch_tdep *tdep;
+         tdep = gdbarch_tdep (gdbarch);
 
-  argreg = ARM_A1_REGNUM;
-  nstack = 0;
+         if (tdep->syscall_next_pc != NULL)
+           nextpc = tdep->syscall_next_pc (frame);
 
-  /* The struct_return pointer occupies the first parameter
-     passing register.  */
-  if (struct_return)
+       }
+      else if (cond != 0x0f && condition_true (cond, status))
+       nextpc = pc_val + (sbits (inst1, 0, 7) << 1);
+    }
+  else if ((inst1 & 0xf800) == 0xe000) /* unconditional branch */
     {
-      if (arm_debug)
-       fprintf_unfiltered (gdb_stdlog, "struct return in %s = %s\n",
-                           gdbarch_register_name (gdbarch, argreg),
-                           paddress (gdbarch, struct_addr));
-      regcache_cooked_write_unsigned (regcache, argreg, struct_addr);
-      argreg++;
+      nextpc = pc_val + (sbits (inst1, 0, 10) << 1);
     }
-
-  for (argnum = 0; argnum < nargs; argnum++)
+  else if (thumb_insn_size (inst1) == 4) /* 32-bit instruction */
     {
-      int len;
-      struct type *arg_type;
-      struct type *target_type;
-      enum type_code typecode;
-      const bfd_byte *val;
-      int align;
-      enum arm_vfp_cprc_base_type vfp_base_type;
-      int vfp_base_count;
-      int may_use_core_reg = 1;
+      unsigned short inst2;
+      inst2 = read_memory_unsigned_integer (pc + 2, 2, byte_order_for_code);
 
-      arg_type = check_typedef (value_type (args[argnum]));
-      len = TYPE_LENGTH (arg_type);
-      target_type = TYPE_TARGET_TYPE (arg_type);
-      typecode = TYPE_CODE (arg_type);
-      val = value_contents (args[argnum]);
+      /* Default to the next instruction.  */
+      nextpc = pc + 4;
+      nextpc = MAKE_THUMB_ADDR (nextpc);
 
-      align = arm_type_align (arg_type);
-      /* Round alignment up to a whole number of words.  */
-      align = (align + INT_REGISTER_SIZE - 1) & ~(INT_REGISTER_SIZE - 1);
-      /* Different ABIs have different maximum alignments.  */
-      if (gdbarch_tdep (gdbarch)->arm_abi == ARM_ABI_APCS)
-       {
-         /* The APCS ABI only requires word alignment.  */
-         align = INT_REGISTER_SIZE;
-       }
-      else
+      if ((inst1 & 0xf800) == 0xf000 && (inst2 & 0x8000) == 0x8000)
        {
-         /* The AAPCS requires at most doubleword alignment.  */
-         if (align > INT_REGISTER_SIZE * 2)
-           align = INT_REGISTER_SIZE * 2;
-       }
+         /* Branches and miscellaneous control instructions.  */
 
-      if (use_vfp_abi
-         && arm_vfp_call_candidate (arg_type, &vfp_base_type,
-                                    &vfp_base_count))
-       {
-         int regno;
-         int unit_length;
-         int shift;
-         unsigned mask;
+         if ((inst2 & 0x1000) != 0 || (inst2 & 0xd001) == 0xc000)
+           {
+             /* B, BL, BLX.  */
+             int j1, j2, imm1, imm2;
 
-         /* Because this is a CPRC it cannot go in a core register or
-            cause a core register to be skipped for alignment.
-            Either it goes in VFP registers and the rest of this loop
-            iteration is skipped for this argument, or it goes on the
-            stack (and the stack alignment code is correct for this
-            case).  */
-         may_use_core_reg = 0;
+             imm1 = sbits (inst1, 0, 10);
+             imm2 = bits (inst2, 0, 10);
+             j1 = bit (inst2, 13);
+             j2 = bit (inst2, 11);
 
-         unit_length = arm_vfp_cprc_unit_length (vfp_base_type);
-         shift = unit_length / 4;
-         mask = (1 << (shift * vfp_base_count)) - 1;
-         for (regno = 0; regno < 16; regno += shift)
-           if (((vfp_regs_free >> regno) & mask) == mask)
-             break;
+             offset = ((imm1 << 12) + (imm2 << 1));
+             offset ^= ((!j2) << 22) | ((!j1) << 23);
 
-         if (regno < 16)
+             nextpc = pc_val + offset;
+             /* For BLX make sure to clear the low bits.  */
+             if (bit (inst2, 12) == 0)
+               nextpc = nextpc & 0xfffffffc;
+           }
+         else if (inst1 == 0xf3de && (inst2 & 0xff00) == 0x3f00)
            {
-             int reg_char;
-             int reg_scaled;
-             int i;
-
-             vfp_regs_free &= ~(mask << regno);
-             reg_scaled = regno / shift;
-             reg_char = arm_vfp_cprc_reg_char (vfp_base_type);
-             for (i = 0; i < vfp_base_count; i++)
+             /* SUBS PC, LR, #imm8.  */
+             nextpc = get_frame_register_unsigned (frame, ARM_LR_REGNUM);
+             nextpc -= inst2 & 0x00ff;
+           }
+         else if ((inst2 & 0xd000) == 0x8000 && (inst1 & 0x0380) != 0x0380)
+           {
+             /* Conditional branch.  */
+             if (condition_true (bits (inst1, 6, 9), status))
                {
-                 char name_buf[4];
-                 int regnum;
-                 if (reg_char == 'q')
-                   arm_neon_quad_write (gdbarch, regcache, reg_scaled + i,
-                                        val + i * unit_length);
-                 else
-                   {
-                     sprintf (name_buf, "%c%d", reg_char, reg_scaled + i);
-                     regnum = user_reg_map_name_to_regnum (gdbarch, name_buf,
-                                                           strlen (name_buf));
-                     regcache_cooked_write (regcache, regnum,
-                                            val + i * unit_length);
-                   }
+                 int sign, j1, j2, imm1, imm2;
+
+                 sign = sbits (inst1, 10, 10);
+                 imm1 = bits (inst1, 0, 5);
+                 imm2 = bits (inst2, 0, 10);
+                 j1 = bit (inst2, 13);
+                 j2 = bit (inst2, 11);
+
+                 offset = (sign << 20) + (j2 << 19) + (j1 << 18);
+                 offset += (imm1 << 12) + (imm2 << 1);
+
+                 nextpc = pc_val + offset;
                }
-             continue;
+           }
+       }
+      else if ((inst1 & 0xfe50) == 0xe810)
+       {
+         /* Load multiple or RFE.  */
+         int rn, offset, load_pc = 1;
+
+         rn = bits (inst1, 0, 3);
+         if (bit (inst1, 7) && !bit (inst1, 8))
+           {
+             /* LDMIA or POP */
+             if (!bit (inst2, 15))
+               load_pc = 0;
+             offset = bitcount (inst2) * 4 - 4;
+           }
+         else if (!bit (inst1, 7) && bit (inst1, 8))
+           {
+             /* LDMDB */
+             if (!bit (inst2, 15))
+               load_pc = 0;
+             offset = -4;
+           }
+         else if (bit (inst1, 7) && bit (inst1, 8))
+           {
+             /* RFEIA */
+             offset = 0;
+           }
+         else if (!bit (inst1, 7) && !bit (inst1, 8))
+           {
+             /* RFEDB */
+             offset = -8;
            }
          else
+           load_pc = 0;
+
+         if (load_pc)
            {
-             /* This CPRC could not go in VFP registers, so all VFP
-                registers are now marked as used.  */
-             vfp_regs_free = 0;
+             CORE_ADDR addr = get_frame_register_unsigned (frame, rn);
+             nextpc = get_frame_memory_unsigned (frame, addr + offset, 4);
            }
        }
-
-      /* Push stack padding for dowubleword alignment.  */
-      if (nstack & (align - 1))
+      else if ((inst1 & 0xffef) == 0xea4f && (inst2 & 0xfff0) == 0x0f00)
        {
-         si = push_stack_item (si, val, INT_REGISTER_SIZE);
-         nstack += INT_REGISTER_SIZE;
+         /* MOV PC or MOVS PC.  */
+         nextpc = get_frame_register_unsigned (frame, bits (inst2, 0, 3));
+         nextpc = MAKE_THUMB_ADDR (nextpc);
        }
-      
-      /* Doubleword aligned quantities must go in even register pairs.  */
-      if (may_use_core_reg
-         && argreg <= ARM_LAST_ARG_REGNUM
-         && align > INT_REGISTER_SIZE
-         && argreg & 1)
-       argreg++;
-
-      /* If the argument is a pointer to a function, and it is a
-        Thumb function, create a LOCAL copy of the value and set
-        the THUMB bit in it.  */
-      if (TYPE_CODE_PTR == typecode
-         && target_type != NULL
-         && TYPE_CODE_FUNC == TYPE_CODE (check_typedef (target_type)))
+      else if ((inst1 & 0xff70) == 0xf850 && (inst2 & 0xf000) == 0xf000)
        {
-         CORE_ADDR regval = extract_unsigned_integer (val, len, byte_order);
-         if (arm_pc_is_thumb (gdbarch, regval))
+         /* LDR PC.  */
+         CORE_ADDR base;
+         int rn, load_pc = 1;
+
+         rn = bits (inst1, 0, 3);
+         base = get_frame_register_unsigned (frame, rn);
+         if (rn == ARM_PC_REGNUM)
            {
-             bfd_byte *copy = alloca (len);
-             store_unsigned_integer (copy, len, byte_order,
-                                     MAKE_THUMB_ADDR (regval));
-             val = copy;
+             base = (base + 4) & ~(CORE_ADDR) 0x3;
+             if (bit (inst1, 7))
+               base += bits (inst2, 0, 11);
+             else
+               base -= bits (inst2, 0, 11);
+           }
+         else if (bit (inst1, 7))
+           base += bits (inst2, 0, 11);
+         else if (bit (inst2, 11))
+           {
+             if (bit (inst2, 10))
+               {
+                 if (bit (inst2, 9))
+                   base += bits (inst2, 0, 7);
+                 else
+                   base -= bits (inst2, 0, 7);
+               }
            }
+         else if ((inst2 & 0x0fc0) == 0x0000)
+           {
+             int shift = bits (inst2, 4, 5), rm = bits (inst2, 0, 3);
+             base += get_frame_register_unsigned (frame, rm) << shift;
+           }
+         else
+           /* Reserved.  */
+           load_pc = 0;
+
+         if (load_pc)
+           nextpc = get_frame_memory_unsigned (frame, base, 4);
        }
+      else if ((inst1 & 0xfff0) == 0xe8d0 && (inst2 & 0xfff0) == 0xf000)
+       {
+         /* TBB.  */
+         CORE_ADDR tbl_reg, table, offset, length;
+
+         tbl_reg = bits (inst1, 0, 3);
+         if (tbl_reg == 0x0f)
+           table = pc + 4;  /* Regcache copy of PC isn't right yet.  */
+         else
+           table = get_frame_register_unsigned (frame, tbl_reg);
 
-      /* Copy the argument to general registers or the stack in
-        register-sized pieces.  Large arguments are split between
-        registers and stack.  */
-      while (len > 0)
+         offset = get_frame_register_unsigned (frame, bits (inst2, 0, 3));
+         length = 2 * get_frame_memory_unsigned (frame, table + offset, 1);
+         nextpc = pc_val + length;
+       }
+      else if ((inst1 & 0xfff0) == 0xe8d0 && (inst2 & 0xfff0) == 0xf010)
        {
-         int partial_len = len < INT_REGISTER_SIZE ? len : INT_REGISTER_SIZE;
+         /* TBH.  */
+         CORE_ADDR tbl_reg, table, offset, length;
 
-         if (may_use_core_reg && argreg <= ARM_LAST_ARG_REGNUM)
-           {
-             /* The argument is being passed in a general purpose
-                register.  */
-             CORE_ADDR regval
-               = extract_unsigned_integer (val, partial_len, byte_order);
-             if (byte_order == BFD_ENDIAN_BIG)
-               regval <<= (INT_REGISTER_SIZE - partial_len) * 8;
-             if (arm_debug)
-               fprintf_unfiltered (gdb_stdlog, "arg %d in %s = 0x%s\n",
-                                   argnum,
-                                   gdbarch_register_name
-                                     (gdbarch, argreg),
-                                   phex (regval, INT_REGISTER_SIZE));
-             regcache_cooked_write_unsigned (regcache, argreg, regval);
-             argreg++;
-           }
+         tbl_reg = bits (inst1, 0, 3);
+         if (tbl_reg == 0x0f)
+           table = pc + 4;  /* Regcache copy of PC isn't right yet.  */
          else
-           {
-             /* Push the arguments onto the stack.  */
-             if (arm_debug)
-               fprintf_unfiltered (gdb_stdlog, "arg %d @ sp + %d\n",
-                                   argnum, nstack);
-             si = push_stack_item (si, val, INT_REGISTER_SIZE);
-             nstack += INT_REGISTER_SIZE;
-           }
-             
-         len -= partial_len;
-         val += partial_len;
+           table = get_frame_register_unsigned (frame, tbl_reg);
+
+         offset = 2 * get_frame_register_unsigned (frame, bits (inst2, 0, 3));
+         length = 2 * get_frame_memory_unsigned (frame, table + offset, 2);
+         nextpc = pc_val + length;
        }
     }
-  /* If we have an odd number of words to push, then decrement the stack
-     by one word now, so first stack argument will be dword aligned.  */
-  if (nstack & 4)
-    sp -= 4;
-
-  while (si)
+  else if ((inst1 & 0xff00) == 0x4700) /* bx REG, blx REG */
     {
-      sp -= si->len;
-      write_memory (sp, si->data, si->len);
-      si = pop_stack_item (si);
+      if (bits (inst1, 3, 6) == 0x0f)
+       nextpc = pc_val;
+      else
+       nextpc = get_frame_register_unsigned (frame, bits (inst1, 3, 6));
     }
+  else if ((inst1 & 0xff87) == 0x4687) /* mov pc, REG */
+    {
+      if (bits (inst1, 3, 6) == 0x0f)
+       nextpc = pc_val;
+      else
+       nextpc = get_frame_register_unsigned (frame, bits (inst1, 3, 6));
 
-  /* Finally, update teh SP register.  */
-  regcache_cooked_write_unsigned (regcache, ARM_SP_REGNUM, sp);
+      nextpc = MAKE_THUMB_ADDR (nextpc);
+    }
+  else if ((inst1 & 0xf500) == 0xb100)
+    {
+      /* CBNZ or CBZ.  */
+      int imm = (bit (inst1, 9) << 6) + (bits (inst1, 3, 7) << 1);
+      ULONGEST reg = get_frame_register_unsigned (frame, bits (inst1, 0, 2));
 
-  return sp;
+      if (bit (inst1, 11) && reg != 0)
+       nextpc = pc_val + imm;
+      else if (!bit (inst1, 11) && reg == 0)
+       nextpc = pc_val + imm;
+    }
+  return nextpc;
 }
 
+/* Get the raw next address.  PC is the current program counter, in 
+   FRAME, which is assumed to be executing in ARM mode.
 
-/* Always align the frame to an 8-byte boundary.  This is required on
-   some platforms and harmless on the rest.  */
+   The value returned has the execution state of the next instruction 
+   encoded in it.  Use IS_THUMB_ADDR () to see whether the instruction is
+   in Thumb-State, and gdbarch_addr_bits_remove () to get the plain memory
+   address.  */
 
 static CORE_ADDR
-arm_frame_align (struct gdbarch *gdbarch, CORE_ADDR sp)
+arm_get_next_pc_raw (struct frame_info *frame, CORE_ADDR pc)
 {
-  /* Align the stack to eight bytes.  */
-  return sp & ~ (CORE_ADDR) 7;
-}
+  struct gdbarch *gdbarch = get_frame_arch (frame);
+  enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  unsigned long pc_val;
+  unsigned long this_instr;
+  unsigned long status;
+  CORE_ADDR nextpc;
 
-static void
-print_fpu_flags (int flags)
-{
-  if (flags & (1 << 0))
-    fputs ("IVO ", stdout);
-  if (flags & (1 << 1))
-    fputs ("DVZ ", stdout);
-  if (flags & (1 << 2))
-    fputs ("OFL ", stdout);
-  if (flags & (1 << 3))
-    fputs ("UFL ", stdout);
-  if (flags & (1 << 4))
-    fputs ("INX ", stdout);
-  putchar ('\n');
-}
+  pc_val = (unsigned long) pc;
+  this_instr = read_memory_unsigned_integer (pc, 4, byte_order_for_code);
 
-/* Print interesting information about the floating point processor
-   (if present) or emulator.  */
-static void
-arm_print_float_info (struct gdbarch *gdbarch, struct ui_file *file,
-                     struct frame_info *frame, const char *args)
-{
-  unsigned long status = get_frame_register_unsigned (frame, ARM_FPS_REGNUM);
-  int type;
+  status = get_frame_register_unsigned (frame, ARM_PS_REGNUM);
+  nextpc = (CORE_ADDR) (pc_val + 4);   /* Default case */
 
-  type = (status >> 24) & 127;
-  if (status & (1 << 31))
-    printf (_("Hardware FPU type %d\n"), type);
-  else
-    printf (_("Software FPU type %d\n"), type);
-  /* i18n: [floating point unit] mask */
-  fputs (_("mask: "), stdout);
-  print_fpu_flags (status >> 16);
-  /* i18n: [floating point unit] flags */
-  fputs (_("flags: "), stdout);
-  print_fpu_flags (status);
-}
+  if (bits (this_instr, 28, 31) == INST_NV)
+    switch (bits (this_instr, 24, 27))
+      {
+      case 0xa:
+      case 0xb:
+       {
+         /* Branch with Link and change to Thumb.  */
+         nextpc = BranchDest (pc, this_instr);
+         nextpc |= bit (this_instr, 24) << 1;
+         nextpc = MAKE_THUMB_ADDR (nextpc);
+         break;
+       }
+      case 0xc:
+      case 0xd:
+      case 0xe:
+       /* Coprocessor register transfer.  */
+        if (bits (this_instr, 12, 15) == 15)
+         error (_("Invalid update to pc in instruction"));
+       break;
+      }
+  else if (condition_true (bits (this_instr, 28, 31), status))
+    {
+      switch (bits (this_instr, 24, 27))
+       {
+       case 0x0:
+       case 0x1:                       /* data processing */
+       case 0x2:
+       case 0x3:
+         {
+           unsigned long operand1, operand2, result = 0;
+           unsigned long rn;
+           int c;
 
-/* Construct the ARM extended floating point type.  */
-static struct type *
-arm_ext_type (struct gdbarch *gdbarch)
-{
-  struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
+           if (bits (this_instr, 12, 15) != 15)
+             break;
 
-  if (!tdep->arm_ext_type)
-    tdep->arm_ext_type
-      = arch_float_type (gdbarch, -1, "builtin_type_arm_ext",
-                        floatformats_arm_ext);
+           if (bits (this_instr, 22, 25) == 0
+               && bits (this_instr, 4, 7) == 9)        /* multiply */
+             error (_("Invalid update to pc in instruction"));
 
-  return tdep->arm_ext_type;
-}
+           /* BX <reg>, BLX <reg> */
+           if (bits (this_instr, 4, 27) == 0x12fff1
+               || bits (this_instr, 4, 27) == 0x12fff3)
+             {
+               rn = bits (this_instr, 0, 3);
+               nextpc = ((rn == ARM_PC_REGNUM)
+                         ? (pc_val + 8)
+                         : get_frame_register_unsigned (frame, rn));
 
-static struct type *
-arm_neon_double_type (struct gdbarch *gdbarch)
-{
-  struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
+               return nextpc;
+             }
 
-  if (tdep->neon_double_type == NULL)
-    {
-      struct type *t, *elem;
+           /* Multiply into PC.  */
+           c = (status & FLAG_C) ? 1 : 0;
+           rn = bits (this_instr, 16, 19);
+           operand1 = ((rn == ARM_PC_REGNUM)
+                       ? (pc_val + 8)
+                       : get_frame_register_unsigned (frame, rn));
 
-      t = arch_composite_type (gdbarch, "__gdb_builtin_type_neon_d",
-                              TYPE_CODE_UNION);
-      elem = builtin_type (gdbarch)->builtin_uint8;
-      append_composite_type_field (t, "u8", init_vector_type (elem, 8));
-      elem = builtin_type (gdbarch)->builtin_uint16;
-      append_composite_type_field (t, "u16", init_vector_type (elem, 4));
-      elem = builtin_type (gdbarch)->builtin_uint32;
-      append_composite_type_field (t, "u32", init_vector_type (elem, 2));
-      elem = builtin_type (gdbarch)->builtin_uint64;
-      append_composite_type_field (t, "u64", elem);
-      elem = builtin_type (gdbarch)->builtin_float;
-      append_composite_type_field (t, "f32", init_vector_type (elem, 2));
-      elem = builtin_type (gdbarch)->builtin_double;
-      append_composite_type_field (t, "f64", elem);
+           if (bit (this_instr, 25))
+             {
+               unsigned long immval = bits (this_instr, 0, 7);
+               unsigned long rotate = 2 * bits (this_instr, 8, 11);
+               operand2 = ((immval >> rotate) | (immval << (32 - rotate)))
+                 & 0xffffffff;
+             }
+           else                /* operand 2 is a shifted register.  */
+             operand2 = shifted_reg_val (frame, this_instr, c,
+                                         pc_val, status);
+
+           switch (bits (this_instr, 21, 24))
+             {
+             case 0x0: /*and */
+               result = operand1 & operand2;
+               break;
+
+             case 0x1: /*eor */
+               result = operand1 ^ operand2;
+               break;
+
+             case 0x2: /*sub */
+               result = operand1 - operand2;
+               break;
+
+             case 0x3: /*rsb */
+               result = operand2 - operand1;
+               break;
+
+             case 0x4: /*add */
+               result = operand1 + operand2;
+               break;
+
+             case 0x5: /*adc */
+               result = operand1 + operand2 + c;
+               break;
 
-      TYPE_VECTOR (t) = 1;
-      TYPE_NAME (t) = "neon_d";
-      tdep->neon_double_type = t;
-    }
+             case 0x6: /*sbc */
+               result = operand1 - operand2 + c;
+               break;
 
-  return tdep->neon_double_type;
-}
+             case 0x7: /*rsc */
+               result = operand2 - operand1 + c;
+               break;
 
-/* FIXME: The vector types are not correctly ordered on big-endian
-   targets.  Just as s0 is the low bits of d0, d0[0] is also the low
-   bits of d0 - regardless of what unit size is being held in d0.  So
-   the offset of the first uint8 in d0 is 7, but the offset of the
-   first float is 4.  This code works as-is for little-endian
-   targets.  */
+             case 0x8:
+             case 0x9:
+             case 0xa:
+             case 0xb: /* tst, teq, cmp, cmn */
+               result = (unsigned long) nextpc;
+               break;
 
-static struct type *
-arm_neon_quad_type (struct gdbarch *gdbarch)
-{
-  struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
+             case 0xc: /*orr */
+               result = operand1 | operand2;
+               break;
 
-  if (tdep->neon_quad_type == NULL)
-    {
-      struct type *t, *elem;
+             case 0xd: /*mov */
+               /* Always step into a function.  */
+               result = operand2;
+               break;
 
-      t = arch_composite_type (gdbarch, "__gdb_builtin_type_neon_q",
-                              TYPE_CODE_UNION);
-      elem = builtin_type (gdbarch)->builtin_uint8;
-      append_composite_type_field (t, "u8", init_vector_type (elem, 16));
-      elem = builtin_type (gdbarch)->builtin_uint16;
-      append_composite_type_field (t, "u16", init_vector_type (elem, 8));
-      elem = builtin_type (gdbarch)->builtin_uint32;
-      append_composite_type_field (t, "u32", init_vector_type (elem, 4));
-      elem = builtin_type (gdbarch)->builtin_uint64;
-      append_composite_type_field (t, "u64", init_vector_type (elem, 2));
-      elem = builtin_type (gdbarch)->builtin_float;
-      append_composite_type_field (t, "f32", init_vector_type (elem, 4));
-      elem = builtin_type (gdbarch)->builtin_double;
-      append_composite_type_field (t, "f64", init_vector_type (elem, 2));
+             case 0xe: /*bic */
+               result = operand1 & ~operand2;
+               break;
 
-      TYPE_VECTOR (t) = 1;
-      TYPE_NAME (t) = "neon_q";
-      tdep->neon_quad_type = t;
-    }
+             case 0xf: /*mvn */
+               result = ~operand2;
+               break;
+             }
 
-  return tdep->neon_quad_type;
-}
+            /* In 26-bit APCS the bottom two bits of the result are 
+              ignored, and we always end up in ARM state.  */
+           if (!arm_apcs_32)
+             nextpc = arm_addr_bits_remove (gdbarch, result);
+           else
+             nextpc = result;
 
-/* Return the GDB type object for the "standard" data type of data in
-   register N.  */
+           break;
+         }
 
-static struct type *
-arm_register_type (struct gdbarch *gdbarch, int regnum)
-{
-  int num_regs = gdbarch_num_regs (gdbarch);
+       case 0x4:
+       case 0x5:               /* data transfer */
+       case 0x6:
+       case 0x7:
+         if (bit (this_instr, 20))
+           {
+             /* load */
+             if (bits (this_instr, 12, 15) == 15)
+               {
+                 /* rd == pc */
+                 unsigned long rn;
+                 unsigned long base;
 
-  if (gdbarch_tdep (gdbarch)->have_vfp_pseudos
-      && regnum >= num_regs && regnum < num_regs + 32)
-    return builtin_type (gdbarch)->builtin_float;
+                 if (bit (this_instr, 22))
+                   error (_("Invalid update to pc in instruction"));
 
-  if (gdbarch_tdep (gdbarch)->have_neon_pseudos
-      && regnum >= num_regs + 32 && regnum < num_regs + 32 + 16)
-    return arm_neon_quad_type (gdbarch);
+                 /* byte write to PC */
+                 rn = bits (this_instr, 16, 19);
+                 base = ((rn == ARM_PC_REGNUM)
+                         ? (pc_val + 8)
+                         : get_frame_register_unsigned (frame, rn));
 
-  /* If the target description has register information, we are only
-     in this function so that we can override the types of
-     double-precision registers for NEON.  */
-  if (tdesc_has_registers (gdbarch_target_desc (gdbarch)))
-    {
-      struct type *t = tdesc_register_type (gdbarch, regnum);
+                 if (bit (this_instr, 24))
+                   {
+                     /* pre-indexed */
+                     int c = (status & FLAG_C) ? 1 : 0;
+                     unsigned long offset =
+                     (bit (this_instr, 25)
+                      ? shifted_reg_val (frame, this_instr, c, pc_val, status)
+                      : bits (this_instr, 0, 11));
 
-      if (regnum >= ARM_D0_REGNUM && regnum < ARM_D0_REGNUM + 32
-         && TYPE_CODE (t) == TYPE_CODE_FLT
-         && gdbarch_tdep (gdbarch)->have_neon)
-       return arm_neon_double_type (gdbarch);
-      else
-       return t;
-    }
+                     if (bit (this_instr, 23))
+                       base += offset;
+                     else
+                       base -= offset;
+                   }
+                 nextpc =
+                   (CORE_ADDR) read_memory_unsigned_integer ((CORE_ADDR) base,
+                                                             4, byte_order);
+               }
+           }
+         break;
 
-  if (regnum >= ARM_F0_REGNUM && regnum < ARM_F0_REGNUM + NUM_FREGS)
-    {
-      if (!gdbarch_tdep (gdbarch)->have_fpa_registers)
-       return builtin_type (gdbarch)->builtin_void;
+       case 0x8:
+       case 0x9:               /* block transfer */
+         if (bit (this_instr, 20))
+           {
+             /* LDM */
+             if (bit (this_instr, 15))
+               {
+                 /* loading pc */
+                 int offset = 0;
+                 unsigned long rn_val
+                   = get_frame_register_unsigned (frame,
+                                                  bits (this_instr, 16, 19));
 
-      return arm_ext_type (gdbarch);
-    }
-  else if (regnum == ARM_SP_REGNUM)
-    return builtin_type (gdbarch)->builtin_data_ptr;
-  else if (regnum == ARM_PC_REGNUM)
-    return builtin_type (gdbarch)->builtin_func_ptr;
-  else if (regnum >= ARRAY_SIZE (arm_register_names))
-    /* These registers are only supported on targets which supply
-       an XML description.  */
-    return builtin_type (gdbarch)->builtin_int0;
-  else
-    return builtin_type (gdbarch)->builtin_uint32;
-}
+                 if (bit (this_instr, 23))
+                   {
+                     /* up */
+                     unsigned long reglist = bits (this_instr, 0, 14);
+                     offset = bitcount (reglist) * 4;
+                     if (bit (this_instr, 24))         /* pre */
+                       offset += 4;
+                   }
+                 else if (bit (this_instr, 24))
+                   offset = -4;
 
-/* Map a DWARF register REGNUM onto the appropriate GDB register
-   number.  */
+                 nextpc =
+                   (CORE_ADDR) read_memory_unsigned_integer ((CORE_ADDR)
+                                                             (rn_val + offset),
+                                                             4, byte_order);
+               }
+           }
+         break;
 
-static int
-arm_dwarf_reg_to_regnum (struct gdbarch *gdbarch, int reg)
-{
-  /* Core integer regs.  */
-  if (reg >= 0 && reg <= 15)
-    return reg;
+       case 0xb:               /* branch & link */
+       case 0xa:               /* branch */
+         {
+           nextpc = BranchDest (pc, this_instr);
+           break;
+         }
 
-  /* Legacy FPA encoding.  These were once used in a way which
-     overlapped with VFP register numbering, so their use is
-     discouraged, but GDB doesn't support the ARM toolchain
-     which used them for VFP.  */
-  if (reg >= 16 && reg <= 23)
-    return ARM_F0_REGNUM + reg - 16;
+       case 0xc:
+       case 0xd:
+       case 0xe:               /* coproc ops */
+         break;
+       case 0xf:               /* SWI */
+         {
+           struct gdbarch_tdep *tdep;
+           tdep = gdbarch_tdep (gdbarch);
 
-  /* New assignments for the FPA registers.  */
-  if (reg >= 96 && reg <= 103)
-    return ARM_F0_REGNUM + reg - 96;
+           if (tdep->syscall_next_pc != NULL)
+             nextpc = tdep->syscall_next_pc (frame);
 
-  /* WMMX register assignments.  */
-  if (reg >= 104 && reg <= 111)
-    return ARM_WCGR0_REGNUM + reg - 104;
+         }
+         break;
 
-  if (reg >= 112 && reg <= 127)
-    return ARM_WR0_REGNUM + reg - 112;
+       default:
+         fprintf_filtered (gdb_stderr, _("Bad bit-field extraction\n"));
+         return (pc);
+       }
+    }
 
-  if (reg >= 192 && reg <= 199)
-    return ARM_WC0_REGNUM + reg - 192;
+  return nextpc;
+}
 
-  /* VFP v2 registers.  A double precision value is actually
-     in d1 rather than s2, but the ABI only defines numbering
-     for the single precision registers.  This will "just work"
-     in GDB for little endian targets (we'll read eight bytes,
-     starting in s0 and then progressing to s1), but will be
-     reversed on big endian targets with VFP.  This won't
-     be a problem for the new Neon quad registers; you're supposed
-     to use DW_OP_piece for those.  */
-  if (reg >= 64 && reg <= 95)
-    {
-      char name_buf[4];
+/* Determine next PC after current instruction executes.  Will call either
+   arm_get_next_pc_raw or thumb_get_next_pc_raw.  Error out if infinite
+   loop is detected.  */
 
-      sprintf (name_buf, "s%d", reg - 64);
-      return user_reg_map_name_to_regnum (gdbarch, name_buf,
-                                         strlen (name_buf));
-    }
+CORE_ADDR
+arm_get_next_pc (struct frame_info *frame, CORE_ADDR pc)
+{
+  CORE_ADDR nextpc;
 
-  /* VFP v3 / Neon registers.  This range is also used for VFP v2
-     registers, except that it now describes d0 instead of s0.  */
-  if (reg >= 256 && reg <= 287)
+  if (arm_frame_is_thumb (frame))
     {
-      char name_buf[4];
-
-      sprintf (name_buf, "d%d", reg - 256);
-      return user_reg_map_name_to_regnum (gdbarch, name_buf,
-                                         strlen (name_buf));
+      nextpc = thumb_get_next_pc_raw (frame, pc);
+      if (nextpc == MAKE_THUMB_ADDR (pc))
+       error (_("Infinite loop detected"));
+    }
+  else
+    {
+      nextpc = arm_get_next_pc_raw (frame, pc);
+      if (nextpc == pc)
+       error (_("Infinite loop detected"));
     }
 
-  return -1;
+  return nextpc;
+}
+
+/* Like insert_single_step_breakpoint, but make sure we use a breakpoint
+   of the appropriate mode (as encoded in the PC value), even if this
+   differs from what would be expected according to the symbol tables.  */
+
+void
+arm_insert_single_step_breakpoint (struct gdbarch *gdbarch,
+                                  struct address_space *aspace,
+                                  CORE_ADDR pc)
+{
+  struct cleanup *old_chain
+    = make_cleanup_restore_integer (&arm_override_mode);
+
+  arm_override_mode = IS_THUMB_ADDR (pc);
+  pc = gdbarch_addr_bits_remove (gdbarch, pc);
+
+  insert_single_step_breakpoint (gdbarch, aspace, pc);
+
+  do_cleanups (old_chain);
 }
 
-/* Map GDB internal REGNUM onto the Arm simulator register numbers.  */
+/* Checks for an atomic sequence of instructions beginning with a LDREX{,B,H,D}
+   instruction and ending with a STREX{,B,H,D} instruction.  If such a sequence
+   is found, attempt to step through it.  A breakpoint is placed at the end of
+   the sequence.  */
+
 static int
-arm_register_sim_regno (struct gdbarch *gdbarch, int regnum)
+thumb_deal_with_atomic_sequence_raw (struct frame_info *frame)
 {
-  int reg = regnum;
-  gdb_assert (reg >= 0 && reg < gdbarch_num_regs (gdbarch));
-
-  if (regnum >= ARM_WR0_REGNUM && regnum <= ARM_WR15_REGNUM)
-    return regnum - ARM_WR0_REGNUM + SIM_ARM_IWMMXT_COP0R0_REGNUM;
+  struct gdbarch *gdbarch = get_frame_arch (frame);
+  struct address_space *aspace = get_frame_address_space (frame);
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  CORE_ADDR pc = get_frame_pc (frame);
+  CORE_ADDR breaks[2] = {-1, -1};
+  CORE_ADDR loc = pc;
+  unsigned short insn1, insn2;
+  int insn_count;
+  int index;
+  int last_breakpoint = 0; /* Defaults to 0 (no breakpoints placed).  */
+  const int atomic_sequence_length = 16; /* Instruction sequence length.  */
+  ULONGEST status, itstate;
 
-  if (regnum >= ARM_WC0_REGNUM && regnum <= ARM_WC7_REGNUM)
-    return regnum - ARM_WC0_REGNUM + SIM_ARM_IWMMXT_COP1R0_REGNUM;
+  /* We currently do not support atomic sequences within an IT block.  */
+  status = get_frame_register_unsigned (frame, ARM_PS_REGNUM);
+  itstate = ((status >> 8) & 0xfc) | ((status >> 25) & 0x3);
+  if (itstate & 0x0f)
+    return 0;
 
-  if (regnum >= ARM_WCGR0_REGNUM && regnum <= ARM_WCGR7_REGNUM)
-    return regnum - ARM_WCGR0_REGNUM + SIM_ARM_IWMMXT_COP1R8_REGNUM;
+  /* Assume all atomic sequences start with a ldrex{,b,h,d} instruction.  */
+  insn1 = read_memory_unsigned_integer (loc, 2, byte_order_for_code);
+  loc += 2;
+  if (thumb_insn_size (insn1) != 4)
+    return 0;
 
-  if (reg < NUM_GREGS)
-    return SIM_ARM_R0_REGNUM + reg;
-  reg -= NUM_GREGS;
+  insn2 = read_memory_unsigned_integer (loc, 2, byte_order_for_code);
+  loc += 2;
+  if (!((insn1 & 0xfff0) == 0xe850
+        || ((insn1 & 0xfff0) == 0xe8d0 && (insn2 & 0x00c0) == 0x0040)))
+    return 0;
 
-  if (reg < NUM_FREGS)
-    return SIM_ARM_FP0_REGNUM + reg;
-  reg -= NUM_FREGS;
+  /* Assume that no atomic sequence is longer than "atomic_sequence_length"
+     instructions.  */
+  for (insn_count = 0; insn_count < atomic_sequence_length; ++insn_count)
+    {
+      insn1 = read_memory_unsigned_integer (loc, 2, byte_order_for_code);
+      loc += 2;
 
-  if (reg < NUM_SREGS)
-    return SIM_ARM_FPS_REGNUM + reg;
-  reg -= NUM_SREGS;
+      if (thumb_insn_size (insn1) != 4)
+       {
+         /* Assume that there is at most one conditional branch in the
+            atomic sequence.  If a conditional branch is found, put a
+            breakpoint in its destination address.  */
+         if ((insn1 & 0xf000) == 0xd000 && bits (insn1, 8, 11) != 0x0f)
+           {
+             if (last_breakpoint > 0)
+               return 0; /* More than one conditional branch found,
+                            fallback to the standard code.  */
 
-  internal_error (__FILE__, __LINE__, _("Bad REGNUM %d"), regnum);
-}
+             breaks[1] = loc + 2 + (sbits (insn1, 0, 7) << 1);
+             last_breakpoint++;
+           }
 
-/* NOTE: cagney/2001-08-20: Both convert_from_extended() and
-   convert_to_extended() use floatformat_arm_ext_littlebyte_bigword.
-   It is thought that this is is the floating-point register format on
-   little-endian systems.  */
+         /* We do not support atomic sequences that use any *other*
+            instructions but conditional branches to change the PC.
+            Fall back to standard code to avoid losing control of
+            execution.  */
+         else if (thumb_instruction_changes_pc (insn1))
+           return 0;
+       }
+      else
+       {
+         insn2 = read_memory_unsigned_integer (loc, 2, byte_order_for_code);
+         loc += 2;
+
+         /* Assume that there is at most one conditional branch in the
+            atomic sequence.  If a conditional branch is found, put a
+            breakpoint in its destination address.  */
+         if ((insn1 & 0xf800) == 0xf000
+             && (insn2 & 0xd000) == 0x8000
+             && (insn1 & 0x0380) != 0x0380)
+           {
+             int sign, j1, j2, imm1, imm2;
+             unsigned int offset;
 
-static void
-convert_from_extended (const struct floatformat *fmt, const void *ptr,
-                      void *dbl, int endianess)
-{
-  DOUBLEST d;
+             sign = sbits (insn1, 10, 10);
+             imm1 = bits (insn1, 0, 5);
+             imm2 = bits (insn2, 0, 10);
+             j1 = bit (insn2, 13);
+             j2 = bit (insn2, 11);
 
-  if (endianess == BFD_ENDIAN_BIG)
-    floatformat_to_doublest (&floatformat_arm_ext_big, ptr, &d);
-  else
-    floatformat_to_doublest (&floatformat_arm_ext_littlebyte_bigword,
-                            ptr, &d);
-  floatformat_from_doublest (fmt, &d, dbl);
-}
+             offset = (sign << 20) + (j2 << 19) + (j1 << 18);
+             offset += (imm1 << 12) + (imm2 << 1);
 
-static void
-convert_to_extended (const struct floatformat *fmt, void *dbl, const void *ptr,
-                    int endianess)
-{
-  DOUBLEST d;
+             if (last_breakpoint > 0)
+               return 0; /* More than one conditional branch found,
+                            fallback to the standard code.  */
 
-  floatformat_to_doublest (fmt, ptr, &d);
-  if (endianess == BFD_ENDIAN_BIG)
-    floatformat_from_doublest (&floatformat_arm_ext_big, &d, dbl);
-  else
-    floatformat_from_doublest (&floatformat_arm_ext_littlebyte_bigword,
-                              &d, dbl);
-}
+             breaks[1] = loc + offset;
+             last_breakpoint++;
+           }
 
-static int
-condition_true (unsigned long cond, unsigned long status_reg)
-{
-  if (cond == INST_AL || cond == INST_NV)
-    return 1;
+         /* We do not support atomic sequences that use any *other*
+            instructions but conditional branches to change the PC.
+            Fall back to standard code to avoid losing control of
+            execution.  */
+         else if (thumb2_instruction_changes_pc (insn1, insn2))
+           return 0;
 
-  switch (cond)
-    {
-    case INST_EQ:
-      return ((status_reg & FLAG_Z) != 0);
-    case INST_NE:
-      return ((status_reg & FLAG_Z) == 0);
-    case INST_CS:
-      return ((status_reg & FLAG_C) != 0);
-    case INST_CC:
-      return ((status_reg & FLAG_C) == 0);
-    case INST_MI:
-      return ((status_reg & FLAG_N) != 0);
-    case INST_PL:
-      return ((status_reg & FLAG_N) == 0);
-    case INST_VS:
-      return ((status_reg & FLAG_V) != 0);
-    case INST_VC:
-      return ((status_reg & FLAG_V) == 0);
-    case INST_HI:
-      return ((status_reg & (FLAG_C | FLAG_Z)) == FLAG_C);
-    case INST_LS:
-      return ((status_reg & (FLAG_C | FLAG_Z)) != FLAG_C);
-    case INST_GE:
-      return (((status_reg & FLAG_N) == 0) == ((status_reg & FLAG_V) == 0));
-    case INST_LT:
-      return (((status_reg & FLAG_N) == 0) != ((status_reg & FLAG_V) == 0));
-    case INST_GT:
-      return (((status_reg & FLAG_Z) == 0)
-             && (((status_reg & FLAG_N) == 0)
-                 == ((status_reg & FLAG_V) == 0)));
-    case INST_LE:
-      return (((status_reg & FLAG_Z) != 0)
-             || (((status_reg & FLAG_N) == 0)
-                 != ((status_reg & FLAG_V) == 0)));
+         /* If we find a strex{,b,h,d}, we're done.  */
+         if ((insn1 & 0xfff0) == 0xe840
+             || ((insn1 & 0xfff0) == 0xe8c0 && (insn2 & 0x00c0) == 0x0040))
+           break;
+       }
     }
+
+  /* If we didn't find the strex{,b,h,d}, we cannot handle the sequence.  */
+  if (insn_count == atomic_sequence_length)
+    return 0;
+
+  /* Insert a breakpoint right after the end of the atomic sequence.  */
+  breaks[0] = loc;
+
+  /* Check for duplicated breakpoints.  Check also for a breakpoint
+     placed (branch instruction's destination) anywhere in sequence.  */
+  if (last_breakpoint
+      && (breaks[1] == breaks[0]
+         || (breaks[1] >= pc && breaks[1] < loc)))
+    last_breakpoint = 0;
+
+  /* Effectively inserts the breakpoints.  */
+  for (index = 0; index <= last_breakpoint; index++)
+    arm_insert_single_step_breakpoint (gdbarch, aspace,
+                                      MAKE_THUMB_ADDR (breaks[index]));
+
   return 1;
 }
 
-static unsigned long
-shifted_reg_val (struct frame_info *frame, unsigned long inst, int carry,
-                unsigned long pc_val, unsigned long status_reg)
+static int
+arm_deal_with_atomic_sequence_raw (struct frame_info *frame)
 {
-  unsigned long res, shift;
-  int rm = bits (inst, 0, 3);
-  unsigned long shifttype = bits (inst, 5, 6);
-
-  if (bit (inst, 4))
-    {
-      int rs = bits (inst, 8, 11);
-      shift = (rs == 15 ? pc_val + 8
-                       : get_frame_register_unsigned (frame, rs)) & 0xFF;
-    }
-  else
-    shift = bits (inst, 7, 11);
+  struct gdbarch *gdbarch = get_frame_arch (frame);
+  struct address_space *aspace = get_frame_address_space (frame);
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  CORE_ADDR pc = get_frame_pc (frame);
+  CORE_ADDR breaks[2] = {-1, -1};
+  CORE_ADDR loc = pc;
+  unsigned int insn;
+  int insn_count;
+  int index;
+  int last_breakpoint = 0; /* Defaults to 0 (no breakpoints placed).  */
+  const int atomic_sequence_length = 16; /* Instruction sequence length.  */
 
-  res = (rm == 15
-        ? (pc_val + (bit (inst, 4) ? 12 : 8))
-        : get_frame_register_unsigned (frame, rm));
+  /* Assume all atomic sequences start with a ldrex{,b,h,d} instruction.
+     Note that we do not currently support conditionally executed atomic
+     instructions.  */
+  insn = read_memory_unsigned_integer (loc, 4, byte_order_for_code);
+  loc += 4;
+  if ((insn & 0xff9000f0) != 0xe1900090)
+    return 0;
 
-  switch (shifttype)
+  /* Assume that no atomic sequence is longer than "atomic_sequence_length"
+     instructions.  */
+  for (insn_count = 0; insn_count < atomic_sequence_length; ++insn_count)
     {
-    case 0:                    /* LSL */
-      res = shift >= 32 ? 0 : res << shift;
-      break;
+      insn = read_memory_unsigned_integer (loc, 4, byte_order_for_code);
+      loc += 4;
 
-    case 1:                    /* LSR */
-      res = shift >= 32 ? 0 : res >> shift;
-      break;
+      /* Assume that there is at most one conditional branch in the atomic
+         sequence.  If a conditional branch is found, put a breakpoint in
+         its destination address.  */
+      if (bits (insn, 24, 27) == 0xa)
+       {
+          if (last_breakpoint > 0)
+            return 0; /* More than one conditional branch found, fallback
+                         to the standard single-step code.  */
 
-    case 2:                    /* ASR */
-      if (shift >= 32)
-       shift = 31;
-      res = ((res & 0x80000000L)
-            ? ~((~res) >> shift) : res >> shift);
-      break;
+         breaks[1] = BranchDest (loc - 4, insn);
+         last_breakpoint++;
+        }
 
-    case 3:                    /* ROR/RRX */
-      shift &= 31;
-      if (shift == 0)
-       res = (res >> 1) | (carry ? 0x80000000L : 0);
-      else
-       res = (res >> shift) | (res << (32 - shift));
-      break;
+      /* We do not support atomic sequences that use any *other* instructions
+         but conditional branches to change the PC.  Fall back to standard
+        code to avoid losing control of execution.  */
+      else if (arm_instruction_changes_pc (insn))
+       return 0;
+
+      /* If we find a strex{,b,h,d}, we're done.  */
+      if ((insn & 0xff9000f0) == 0xe1800090)
+       break;
     }
 
-  return res & 0xffffffff;
-}
+  /* If we didn't find the strex{,b,h,d}, we cannot handle the sequence.  */
+  if (insn_count == atomic_sequence_length)
+    return 0;
 
-/* Return number of 1-bits in VAL.  */
+  /* Insert a breakpoint right after the end of the atomic sequence.  */
+  breaks[0] = loc;
 
-static int
-bitcount (unsigned long val)
-{
-  int nbits;
-  for (nbits = 0; val != 0; nbits++)
-    val &= val - 1;            /* delete rightmost 1-bit in val */
-  return nbits;
-}
+  /* Check for duplicated breakpoints.  Check also for a breakpoint
+     placed (branch instruction's destination) anywhere in sequence.  */
+  if (last_breakpoint
+      && (breaks[1] == breaks[0]
+         || (breaks[1] >= pc && breaks[1] < loc)))
+    last_breakpoint = 0;
 
-/* Return the size in bytes of the complete Thumb instruction whose
-   first halfword is INST1.  */
+  /* Effectively inserts the breakpoints.  */
+  for (index = 0; index <= last_breakpoint; index++)
+    arm_insert_single_step_breakpoint (gdbarch, aspace, breaks[index]);
 
-static int
-thumb_insn_size (unsigned short inst1)
+  return 1;
+}
+
+int
+arm_deal_with_atomic_sequence (struct frame_info *frame)
 {
-  if ((inst1 & 0xe000) == 0xe000 && (inst1 & 0x1800) != 0)
-    return 4;
+  if (arm_frame_is_thumb (frame))
+    return thumb_deal_with_atomic_sequence_raw (frame);
   else
-    return 2;
+    return arm_deal_with_atomic_sequence_raw (frame);
 }
 
-static int
-thumb_advance_itstate (unsigned int itstate)
+/* single_step() is called just before we want to resume the inferior,
+   if we want to single-step it but there is no hardware or kernel
+   single-step support.  We find the target of the coming instruction
+   and breakpoint it.  */
+
+int
+arm_software_single_step (struct frame_info *frame)
 {
-  /* Preserve IT[7:5], the first three bits of the condition.  Shift
-     the upcoming condition flags left by one bit.  */
-  itstate = (itstate & 0xe0) | ((itstate << 1) & 0x1f);
+  struct gdbarch *gdbarch = get_frame_arch (frame);
+  struct address_space *aspace = get_frame_address_space (frame);
+  CORE_ADDR next_pc;
 
-  /* If we have finished the IT block, clear the state.  */
-  if ((itstate & 0x0f) == 0)
-    itstate = 0;
+  if (arm_deal_with_atomic_sequence (frame))
+    return 1;
 
-  return itstate;
+  next_pc = arm_get_next_pc (frame, get_frame_pc (frame));
+  arm_insert_single_step_breakpoint (gdbarch, aspace, next_pc);
+
+  return 1;
 }
 
-/* Find the next PC after the current instruction executes.  In some
-   cases we can not statically determine the answer (see the IT state
-   handling in this function); in that case, a breakpoint may be
-   inserted in addition to the returned PC, which will be used to set
-   another breakpoint by our caller.  */
+/* Given BUF, which is OLD_LEN bytes ending at ENDADDR, expand
+   the buffer to be NEW_LEN bytes ending at ENDADDR.  Return
+   NULL if an error occurs.  BUF is freed.  */
+
+static gdb_byte *
+extend_buffer_earlier (gdb_byte *buf, CORE_ADDR endaddr,
+                      int old_len, int new_len)
+{
+  gdb_byte *new_buf, *middle;
+  int bytes_to_read = new_len - old_len;
+
+  new_buf = xmalloc (new_len);
+  memcpy (new_buf + bytes_to_read, buf, old_len);
+  xfree (buf);
+  if (target_read_memory (endaddr - new_len, new_buf, bytes_to_read) != 0)
+    {
+      xfree (new_buf);
+      return NULL;
+    }
+  return new_buf;
+}
+
+/* An IT block is at most the 2-byte IT instruction followed by
+   four 4-byte instructions.  The furthest back we must search to
+   find an IT block that affects the current instruction is thus
+   2 + 3 * 4 == 14 bytes.  */
+#define MAX_IT_BLOCK_PREFIX 14
+
+/* Use a quick scan if there are more than this many bytes of
+   code.  */
+#define IT_SCAN_THRESHOLD 32
 
+/* Adjust a breakpoint's address to move breakpoints out of IT blocks.
+   A breakpoint in an IT block may not be hit, depending on the
+   condition flags.  */
 static CORE_ADDR
-thumb_get_next_pc_raw (struct frame_info *frame, CORE_ADDR pc, int insert_bkpt)
+arm_adjust_breakpoint_address (struct gdbarch *gdbarch, CORE_ADDR bpaddr)
 {
-  struct gdbarch *gdbarch = get_frame_arch (frame);
-  struct address_space *aspace = get_frame_address_space (frame);
-  enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
-  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
-  unsigned long pc_val = ((unsigned long) pc) + 4;     /* PC after prefetch */
-  unsigned short inst1;
-  CORE_ADDR nextpc = pc + 2;           /* default is next instruction */
-  unsigned long offset;
-  ULONGEST status, itstate;
+  gdb_byte *buf;
+  char map_type;
+  CORE_ADDR boundary, func_start;
+  int buf_len, buf2_len;
+  enum bfd_endian order = gdbarch_byte_order_for_code (gdbarch);
+  int i, any, last_it, last_it_count;
 
-  nextpc = MAKE_THUMB_ADDR (nextpc);
-  pc_val = MAKE_THUMB_ADDR (pc_val);
+  /* If we are using BKPT breakpoints, none of this is necessary.  */
+  if (gdbarch_tdep (gdbarch)->thumb2_breakpoint == NULL)
+    return bpaddr;
 
-  inst1 = read_memory_unsigned_integer (pc, 2, byte_order_for_code);
+  /* ARM mode does not have this problem.  */
+  if (!arm_pc_is_thumb (gdbarch, bpaddr))
+    return bpaddr;
 
-  /* Thumb-2 conditional execution support.  There are eight bits in
-     the CPSR which describe conditional execution state.  Once
-     reconstructed (they're in a funny order), the low five bits
-     describe the low bit of the condition for each instruction and
-     how many instructions remain.  The high three bits describe the
-     base condition.  One of the low four bits will be set if an IT
-     block is active.  These bits read as zero on earlier
-     processors.  */
-  status = get_frame_register_unsigned (frame, ARM_PS_REGNUM);
-  itstate = ((status >> 8) & 0xfc) | ((status >> 25) & 0x3);
+  /* We are setting a breakpoint in Thumb code that could potentially
+     contain an IT block.  The first step is to find how much Thumb
+     code there is; we do not need to read outside of known Thumb
+     sequences.  */
+  map_type = arm_find_mapping_symbol (bpaddr, &boundary);
+  if (map_type == 0)
+    /* Thumb-2 code must have mapping symbols to have a chance.  */
+    return bpaddr;
 
-  /* If-Then handling.  On GNU/Linux, where this routine is used, we
-     use an undefined instruction as a breakpoint.  Unlike BKPT, IT
-     can disable execution of the undefined instruction.  So we might
-     miss the breakpoint if we set it on a skipped conditional
-     instruction.  Because conditional instructions can change the
-     flags, affecting the execution of further instructions, we may
-     need to set two breakpoints.  */
+  bpaddr = gdbarch_addr_bits_remove (gdbarch, bpaddr);
 
-  if (gdbarch_tdep (gdbarch)->thumb2_breakpoint != NULL)
+  if (find_pc_partial_function (bpaddr, NULL, &func_start, NULL)
+      && func_start > boundary)
+    boundary = func_start;
+
+  /* Search for a candidate IT instruction.  We have to do some fancy
+     footwork to distinguish a real IT instruction from the second
+     half of a 32-bit instruction, but there is no need for that if
+     there's no candidate.  */
+  buf_len = min (bpaddr - boundary, MAX_IT_BLOCK_PREFIX);
+  if (buf_len == 0)
+    /* No room for an IT instruction.  */
+    return bpaddr;
+
+  buf = xmalloc (buf_len);
+  if (target_read_memory (bpaddr - buf_len, buf, buf_len) != 0)
+    return bpaddr;
+  any = 0;
+  for (i = 0; i < buf_len; i += 2)
     {
+      unsigned short inst1 = extract_unsigned_integer (&buf[i], 2, order);
       if ((inst1 & 0xff00) == 0xbf00 && (inst1 & 0x000f) != 0)
        {
-         /* An IT instruction.  Because this instruction does not
-            modify the flags, we can accurately predict the next
-            executed instruction.  */
-         itstate = inst1 & 0x00ff;
-         pc += thumb_insn_size (inst1);
-
-         while (itstate != 0 && ! condition_true (itstate >> 4, status))
-           {
-             inst1 = read_memory_unsigned_integer (pc, 2, byte_order_for_code);
-             pc += thumb_insn_size (inst1);
-             itstate = thumb_advance_itstate (itstate);
-           }
-
-         return MAKE_THUMB_ADDR (pc);
+         any = 1;
+         break;
        }
-      else if (itstate != 0)
-       {
-         /* We are in a conditional block.  Check the condition.  */
-         if (! condition_true (itstate >> 4, status))
-           {
-             /* Advance to the next executed instruction.  */
-             pc += thumb_insn_size (inst1);
-             itstate = thumb_advance_itstate (itstate);
+    }
+  if (any == 0)
+    {
+      xfree (buf);
+      return bpaddr;
+    }
 
-             while (itstate != 0 && ! condition_true (itstate >> 4, status))
-               {
-                 inst1 = read_memory_unsigned_integer (pc, 2, byte_order_for_code);
-                 pc += thumb_insn_size (inst1);
-                 itstate = thumb_advance_itstate (itstate);
-               }
+  /* OK, the code bytes before this instruction contain at least one
+     halfword which resembles an IT instruction.  We know that it's
+     Thumb code, but there are still two possibilities.  Either the
+     halfword really is an IT instruction, or it is the second half of
+     a 32-bit Thumb instruction.  The only way we can tell is to
+     scan forwards from a known instruction boundary.  */
+  if (bpaddr - boundary > IT_SCAN_THRESHOLD)
+    {
+      int definite;
 
-             return MAKE_THUMB_ADDR (pc);
-           }
-         else if ((itstate & 0x0f) == 0x08)
+      /* There's a lot of code before this instruction.  Start with an
+        optimistic search; it's easy to recognize halfwords that can
+        not be the start of a 32-bit instruction, and use that to
+        lock on to the instruction boundaries.  */
+      buf = extend_buffer_earlier (buf, bpaddr, buf_len, IT_SCAN_THRESHOLD);
+      if (buf == NULL)
+       return bpaddr;
+      buf_len = IT_SCAN_THRESHOLD;
+
+      definite = 0;
+      for (i = 0; i < buf_len - sizeof (buf) && ! definite; i += 2)
+       {
+         unsigned short inst1 = extract_unsigned_integer (&buf[i], 2, order);
+         if (thumb_insn_size (inst1) == 2)
            {
-             /* This is the last instruction of the conditional
-                block, and it is executed.  We can handle it normally
-                because the following instruction is not conditional,
-                and we must handle it normally because it is
-                permitted to branch.  Fall through.  */
+             definite = 1;
+             break;
            }
-         else
-           {
-             int cond_negated;
-
-             /* There are conditional instructions after this one.
-                If this instruction modifies the flags, then we can
-                not predict what the next executed instruction will
-                be.  Fortunately, this instruction is architecturally
-                forbidden to branch; we know it will fall through.
-                Start by skipping past it.  */
-             pc += thumb_insn_size (inst1);
-             itstate = thumb_advance_itstate (itstate);
-
-             /* Set a breakpoint on the following instruction.  */
-             gdb_assert ((itstate & 0x0f) != 0);
-             if (insert_bkpt)
-               insert_single_step_breakpoint (gdbarch, aspace, pc);
-             cond_negated = (itstate >> 4) & 1;
-
-             /* Skip all following instructions with the same
-                condition.  If there is a later instruction in the IT
-                block with the opposite condition, set the other
-                breakpoint there.  If not, then set a breakpoint on
-                the instruction after the IT block.  */
-             do
-               {
-                 inst1 = read_memory_unsigned_integer (pc, 2, byte_order_for_code);
-                 pc += thumb_insn_size (inst1);
-                 itstate = thumb_advance_itstate (itstate);
-               }
-             while (itstate != 0 && ((itstate >> 4) & 1) == cond_negated);
+       }
 
-             return MAKE_THUMB_ADDR (pc);
-           }
+      /* At this point, if DEFINITE, BUF[I] is the first place we
+        are sure that we know the instruction boundaries, and it is far
+        enough from BPADDR that we could not miss an IT instruction
+        affecting BPADDR.  If ! DEFINITE, give up - start from a
+        known boundary.  */
+      if (! definite)
+       {
+         buf = extend_buffer_earlier (buf, bpaddr, buf_len,
+                                      bpaddr - boundary);
+         if (buf == NULL)
+           return bpaddr;
+         buf_len = bpaddr - boundary;
+         i = 0;
        }
     }
-  else if (itstate & 0x0f)
+  else
     {
-      /* We are in a conditional block.  Check the condition.  */
-      int cond = itstate >> 4;
+      buf = extend_buffer_earlier (buf, bpaddr, buf_len, bpaddr - boundary);
+      if (buf == NULL)
+       return bpaddr;
+      buf_len = bpaddr - boundary;
+      i = 0;
+    }
 
-      if (! condition_true (cond, status))
+  /* Scan forwards.  Find the last IT instruction before BPADDR.  */
+  last_it = -1;
+  last_it_count = 0;
+  while (i < buf_len)
+    {
+      unsigned short inst1 = extract_unsigned_integer (&buf[i], 2, order);
+      last_it_count--;
+      if ((inst1 & 0xff00) == 0xbf00 && (inst1 & 0x000f) != 0)
        {
-         /* Advance to the next instruction.  All the 32-bit
-            instructions share a common prefix.  */
-         if ((inst1 & 0xe000) == 0xe000 && (inst1 & 0x1800) != 0)
-           return MAKE_THUMB_ADDR (pc + 4);
+         last_it = i;
+         if (inst1 & 0x0001)
+           last_it_count = 4;
+         else if (inst1 & 0x0002)
+           last_it_count = 3;
+         else if (inst1 & 0x0004)
+           last_it_count = 2;
          else
-           return MAKE_THUMB_ADDR (pc + 2);
+           last_it_count = 1;
        }
-
-      /* Otherwise, handle the instruction normally.  */
+      i += thumb_insn_size (inst1);
     }
 
-  if ((inst1 & 0xff00) == 0xbd00)      /* pop {rlist, pc} */
-    {
-      CORE_ADDR sp;
+  xfree (buf);
+
+  if (last_it == -1)
+    /* There wasn't really an IT instruction after all.  */
+    return bpaddr;
+
+  if (last_it_count < 1)
+    /* It was too far away.  */
+    return bpaddr;
+
+  /* This really is a trouble spot.  Move the breakpoint to the IT
+     instruction.  */
+  return bpaddr - buf_len + last_it;
+}
+
+/* ARM displaced stepping support.
+
+   Generally ARM displaced stepping works as follows:
+
+   1. When an instruction is to be single-stepped, it is first decoded by
+      arm_process_displaced_insn (called from arm_displaced_step_copy_insn).
+      Depending on the type of instruction, it is then copied to a scratch
+      location, possibly in a modified form.  The copy_* set of functions
+      performs such modification, as necessary.  A breakpoint is placed after
+      the modified instruction in the scratch space to return control to GDB.
+      Note in particular that instructions which modify the PC will no longer
+      do so after modification.
+
+   2. The instruction is single-stepped, by setting the PC to the scratch
+      location address, and resuming.  Control returns to GDB when the
+      breakpoint is hit.
+
+   3. A cleanup function (cleanup_*) is called corresponding to the copy_*
+      function used for the current instruction.  This function's job is to
+      put the CPU/memory state back to what it would have been if the
+      instruction had been executed unmodified in its original location.  */
+
+/* NOP instruction (mov r0, r0).  */
+#define ARM_NOP                                0xe1a00000
+#define THUMB_NOP 0x4600
+
+/* Helper for register reads for displaced stepping.  In particular, this
+   returns the PC as it would be seen by the instruction at its original
+   location.  */
+
+ULONGEST
+displaced_read_reg (struct regcache *regs, struct displaced_step_closure *dsc,
+                   int regno)
+{
+  ULONGEST ret;
+  CORE_ADDR from = dsc->insn_addr;
 
-      /* Fetch the saved PC from the stack.  It's stored above
-         all of the other registers.  */
-      offset = bitcount (bits (inst1, 0, 7)) * INT_REGISTER_SIZE;
-      sp = get_frame_register_unsigned (frame, ARM_SP_REGNUM);
-      nextpc = read_memory_unsigned_integer (sp + offset, 4, byte_order);
-    }
-  else if ((inst1 & 0xf000) == 0xd000) /* conditional branch */
+  if (regno == ARM_PC_REGNUM)
     {
-      unsigned long cond = bits (inst1, 8, 11);
-      if (cond == 0x0f)  /* 0x0f = SWI */
-       {
-         struct gdbarch_tdep *tdep;
-         tdep = gdbarch_tdep (gdbarch);
+      /* Compute pipeline offset:
+        - When executing an ARM instruction, PC reads as the address of the
+        current instruction plus 8.
+        - When executing a Thumb instruction, PC reads as the address of the
+        current instruction plus 4.  */
 
-         if (tdep->syscall_next_pc != NULL)
-           nextpc = tdep->syscall_next_pc (frame);
+      if (!dsc->is_thumb)
+       from += 8;
+      else
+       from += 4;
 
-       }
-      else if (cond != 0x0f && condition_true (cond, status))
-       nextpc = pc_val + (sbits (inst1, 0, 7) << 1);
+      if (debug_displaced)
+       fprintf_unfiltered (gdb_stdlog, "displaced: read pc value %.8lx\n",
+                           (unsigned long) from);
+      return (ULONGEST) from;
     }
-  else if ((inst1 & 0xf800) == 0xe000) /* unconditional branch */
+  else
     {
-      nextpc = pc_val + (sbits (inst1, 0, 10) << 1);
+      regcache_cooked_read_unsigned (regs, regno, &ret);
+      if (debug_displaced)
+       fprintf_unfiltered (gdb_stdlog, "displaced: read r%d value %.8lx\n",
+                           regno, (unsigned long) ret);
+      return ret;
     }
-  else if ((inst1 & 0xe000) == 0xe000) /* 32-bit instruction */
-    {
-      unsigned short inst2;
-      inst2 = read_memory_unsigned_integer (pc + 2, 2, byte_order_for_code);
+}
 
-      /* Default to the next instruction.  */
-      nextpc = pc + 4;
-      nextpc = MAKE_THUMB_ADDR (nextpc);
+static int
+displaced_in_arm_mode (struct regcache *regs)
+{
+  ULONGEST ps;
+  ULONGEST t_bit = arm_psr_thumb_bit (get_regcache_arch (regs));
 
-      if ((inst1 & 0xf800) == 0xf000 && (inst2 & 0x8000) == 0x8000)
-       {
-         /* Branches and miscellaneous control instructions.  */
+  regcache_cooked_read_unsigned (regs, ARM_PS_REGNUM, &ps);
 
-         if ((inst2 & 0x1000) != 0 || (inst2 & 0xd001) == 0xc000)
-           {
-             /* B, BL, BLX.  */
-             int j1, j2, imm1, imm2;
+  return (ps & t_bit) == 0;
+}
 
-             imm1 = sbits (inst1, 0, 10);
-             imm2 = bits (inst2, 0, 10);
-             j1 = bit (inst2, 13);
-             j2 = bit (inst2, 11);
+/* Write to the PC as from a branch instruction.  */
 
-             offset = ((imm1 << 12) + (imm2 << 1));
-             offset ^= ((!j2) << 22) | ((!j1) << 23);
+static void
+branch_write_pc (struct regcache *regs, struct displaced_step_closure *dsc,
+                ULONGEST val)
+{
+  if (!dsc->is_thumb)
+    /* Note: If bits 0/1 are set, this branch would be unpredictable for
+       architecture versions < 6.  */
+    regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM,
+                                   val & ~(ULONGEST) 0x3);
+  else
+    regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM,
+                                   val & ~(ULONGEST) 0x1);
+}
 
-             nextpc = pc_val + offset;
-             /* For BLX make sure to clear the low bits.  */
-             if (bit (inst2, 12) == 0)
-               nextpc = nextpc & 0xfffffffc;
-           }
-         else if (inst1 == 0xf3de && (inst2 & 0xff00) == 0x3f00)
-           {
-             /* SUBS PC, LR, #imm8.  */
-             nextpc = get_frame_register_unsigned (frame, ARM_LR_REGNUM);
-             nextpc -= inst2 & 0x00ff;
-           }
-         else if ((inst2 & 0xd000) == 0x8000 && (inst1 & 0x0380) != 0x0380)
-           {
-             /* Conditional branch.  */
-             if (condition_true (bits (inst1, 6, 9), status))
-               {
-                 int sign, j1, j2, imm1, imm2;
+/* Write to the PC as from a branch-exchange instruction.  */
 
-                 sign = sbits (inst1, 10, 10);
-                 imm1 = bits (inst1, 0, 5);
-                 imm2 = bits (inst2, 0, 10);
-                 j1 = bit (inst2, 13);
-                 j2 = bit (inst2, 11);
+static void
+bx_write_pc (struct regcache *regs, ULONGEST val)
+{
+  ULONGEST ps;
+  ULONGEST t_bit = arm_psr_thumb_bit (get_regcache_arch (regs));
 
-                 offset = (sign << 20) + (j2 << 19) + (j1 << 18);
-                 offset += (imm1 << 12) + (imm2 << 1);
+  regcache_cooked_read_unsigned (regs, ARM_PS_REGNUM, &ps);
 
-                 nextpc = pc_val + offset;
-               }
-           }
-       }
-      else if ((inst1 & 0xfe50) == 0xe810)
-       {
-         /* Load multiple or RFE.  */
-         int rn, offset, load_pc = 1;
+  if ((val & 1) == 1)
+    {
+      regcache_cooked_write_unsigned (regs, ARM_PS_REGNUM, ps | t_bit);
+      regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM, val & 0xfffffffe);
+    }
+  else if ((val & 2) == 0)
+    {
+      regcache_cooked_write_unsigned (regs, ARM_PS_REGNUM, ps & ~t_bit);
+      regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM, val);
+    }
+  else
+    {
+      /* Unpredictable behaviour.  Try to do something sensible (switch to ARM
+         mode, align dest to 4 bytes).  */
+      warning (_("Single-stepping BX to non-word-aligned ARM instruction."));
+      regcache_cooked_write_unsigned (regs, ARM_PS_REGNUM, ps & ~t_bit);
+      regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM, val & 0xfffffffc);
+    }
+}
 
-         rn = bits (inst1, 0, 3);
-         if (bit (inst1, 7) && !bit (inst1, 8))
-           {
-             /* LDMIA or POP */
-             if (!bit (inst2, 15))
-               load_pc = 0;
-             offset = bitcount (inst2) * 4 - 4;
-           }
-         else if (!bit (inst1, 7) && bit (inst1, 8))
-           {
-             /* LDMDB */
-             if (!bit (inst2, 15))
-               load_pc = 0;
-             offset = -4;
-           }
-         else if (bit (inst1, 7) && bit (inst1, 8))
-           {
-             /* RFEIA */
-             offset = 0;
-           }
-         else if (!bit (inst1, 7) && !bit (inst1, 8))
-           {
-             /* RFEDB */
-             offset = -8;
-           }
-         else
-           load_pc = 0;
+/* Write to the PC as if from a load instruction.  */
 
-         if (load_pc)
-           {
-             CORE_ADDR addr = get_frame_register_unsigned (frame, rn);
-             nextpc = get_frame_memory_unsigned (frame, addr + offset, 4);
-           }
-       }
-      else if ((inst1 & 0xffef) == 0xea4f && (inst2 & 0xfff0) == 0x0f00)
-       {
-         /* MOV PC or MOVS PC.  */
-         nextpc = get_frame_register_unsigned (frame, bits (inst2, 0, 3));
-         nextpc = MAKE_THUMB_ADDR (nextpc);
-       }
-      else if ((inst1 & 0xff70) == 0xf850 && (inst2 & 0xf000) == 0xf000)
-       {
-         /* LDR PC.  */
-         CORE_ADDR base;
-         int rn, load_pc = 1;
+static void
+load_write_pc (struct regcache *regs, struct displaced_step_closure *dsc,
+              ULONGEST val)
+{
+  if (DISPLACED_STEPPING_ARCH_VERSION >= 5)
+    bx_write_pc (regs, val);
+  else
+    branch_write_pc (regs, dsc, val);
+}
 
-         rn = bits (inst1, 0, 3);
-         base = get_frame_register_unsigned (frame, rn);
-         if (rn == 15)
-           {
-             base = (base + 4) & ~(CORE_ADDR) 0x3;
-             if (bit (inst1, 7))
-               base += bits (inst2, 0, 11);
-             else
-               base -= bits (inst2, 0, 11);
-           }
-         else if (bit (inst1, 7))
-           base += bits (inst2, 0, 11);
-         else if (bit (inst2, 11))
-           {
-             if (bit (inst2, 10))
-               {
-                 if (bit (inst2, 9))
-                   base += bits (inst2, 0, 7);
-                 else
-                   base -= bits (inst2, 0, 7);
-               }
-           }
-         else if ((inst2 & 0x0fc0) == 0x0000)
-           {
-             int shift = bits (inst2, 4, 5), rm = bits (inst2, 0, 3);
-             base += get_frame_register_unsigned (frame, rm) << shift;
-           }
-         else
-           /* Reserved.  */
-           load_pc = 0;
+/* Write to the PC as if from an ALU instruction.  */
 
-         if (load_pc)
-           nextpc = get_frame_memory_unsigned (frame, base, 4);
-       }
-      else if ((inst1 & 0xfff0) == 0xe8d0 && (inst2 & 0xfff0) == 0xf000)
-       {
-         /* TBB.  */
-         CORE_ADDR tbl_reg, table, offset, length;
+static void
+alu_write_pc (struct regcache *regs, struct displaced_step_closure *dsc,
+             ULONGEST val)
+{
+  if (DISPLACED_STEPPING_ARCH_VERSION >= 7 && !dsc->is_thumb)
+    bx_write_pc (regs, val);
+  else
+    branch_write_pc (regs, dsc, val);
+}
 
-         tbl_reg = bits (inst1, 0, 3);
-         if (tbl_reg == 0x0f)
-           table = pc + 4;  /* Regcache copy of PC isn't right yet.  */
-         else
-           table = get_frame_register_unsigned (frame, tbl_reg);
+/* Helper for writing to registers for displaced stepping.  Writing to the PC
+   has a varying effects depending on the instruction which does the write:
+   this is controlled by the WRITE_PC argument.  */
 
-         offset = get_frame_register_unsigned (frame, bits (inst2, 0, 3));
-         length = 2 * get_frame_memory_unsigned (frame, table + offset, 1);
-         nextpc = pc_val + length;
-       }
-      else if ((inst1 & 0xfff0) == 0xe8d0 && (inst2 & 0xfff0) == 0xf010)
+void
+displaced_write_reg (struct regcache *regs, struct displaced_step_closure *dsc,
+                    int regno, ULONGEST val, enum pc_write_style write_pc)
+{
+  if (regno == ARM_PC_REGNUM)
+    {
+      if (debug_displaced)
+       fprintf_unfiltered (gdb_stdlog, "displaced: writing pc %.8lx\n",
+                           (unsigned long) val);
+      switch (write_pc)
        {
-         /* TBH.  */
-         CORE_ADDR tbl_reg, table, offset, length;
+       case BRANCH_WRITE_PC:
+         branch_write_pc (regs, dsc, val);
+         break;
 
-         tbl_reg = bits (inst1, 0, 3);
-         if (tbl_reg == 0x0f)
-           table = pc + 4;  /* Regcache copy of PC isn't right yet.  */
-         else
-           table = get_frame_register_unsigned (frame, tbl_reg);
+       case BX_WRITE_PC:
+         bx_write_pc (regs, val);
+         break;
+
+       case LOAD_WRITE_PC:
+         load_write_pc (regs, dsc, val);
+         break;
+
+       case ALU_WRITE_PC:
+         alu_write_pc (regs, dsc, val);
+         break;
 
-         offset = 2 * get_frame_register_unsigned (frame, bits (inst2, 0, 3));
-         length = 2 * get_frame_memory_unsigned (frame, table + offset, 2);
-         nextpc = pc_val + length;
+       case CANNOT_WRITE_PC:
+         warning (_("Instruction wrote to PC in an unexpected way when "
+                    "single-stepping"));
+         break;
+
+       default:
+         internal_error (__FILE__, __LINE__,
+                         _("Invalid argument to displaced_write_reg"));
        }
+
+      dsc->wrote_to_pc = 1;
     }
-  else if ((inst1 & 0xff00) == 0x4700) /* bx REG, blx REG */
+  else
     {
-      if (bits (inst1, 3, 6) == 0x0f)
-       nextpc = pc_val;
-      else
-       nextpc = get_frame_register_unsigned (frame, bits (inst1, 3, 6));
+      if (debug_displaced)
+       fprintf_unfiltered (gdb_stdlog, "displaced: writing r%d value %.8lx\n",
+                           regno, (unsigned long) val);
+      regcache_cooked_write_unsigned (regs, regno, val);
     }
-  else if ((inst1 & 0xff87) == 0x4687) /* mov pc, REG */
-    {
-      if (bits (inst1, 3, 6) == 0x0f)
-       nextpc = pc_val;
-      else
-       nextpc = get_frame_register_unsigned (frame, bits (inst1, 3, 6));
+}
 
-      nextpc = MAKE_THUMB_ADDR (nextpc);
-    }
-  else if ((inst1 & 0xf500) == 0xb100)
+/* This function is used to concisely determine if an instruction INSN
+   references PC.  Register fields of interest in INSN should have the
+   corresponding fields of BITMASK set to 0b1111.  The function
+   returns return 1 if any of these fields in INSN reference the PC
+   (also 0b1111, r15), else it returns 0.  */
+
+static int
+insn_references_pc (uint32_t insn, uint32_t bitmask)
+{
+  uint32_t lowbit = 1;
+
+  while (bitmask != 0)
     {
-      /* CBNZ or CBZ.  */
-      int imm = (bit (inst1, 9) << 6) + (bits (inst1, 3, 7) << 1);
-      ULONGEST reg = get_frame_register_unsigned (frame, bits (inst1, 0, 2));
+      uint32_t mask;
 
-      if (bit (inst1, 11) && reg != 0)
-       nextpc = pc_val + imm;
-      else if (!bit (inst1, 11) && reg == 0)
-       nextpc = pc_val + imm;
+      for (; lowbit && (bitmask & lowbit) == 0; lowbit <<= 1)
+       ;
+
+      if (!lowbit)
+       break;
+
+      mask = lowbit * 0xf;
+
+      if ((insn & mask) == mask)
+       return 1;
+
+      bitmask &= ~mask;
     }
-  return nextpc;
+
+  return 0;
 }
 
-/* Get the raw next address.  PC is the current program counter, in 
-   FRAME.  INSERT_BKPT should be TRUE if we want a breakpoint set on 
-   the alternative next instruction if there are two options.
+/* The simplest copy function.  Many instructions have the same effect no
+   matter what address they are executed at: in those cases, use this.  */
 
-   The value returned has the execution state of the next instruction 
-   encoded in it.  Use IS_THUMB_ADDR () to see whether the instruction is
-   in Thumb-State, and gdbarch_addr_bits_remove () to get the plain memory
-   address.
-*/
-static CORE_ADDR
-arm_get_next_pc_raw (struct frame_info *frame, CORE_ADDR pc, int insert_bkpt)
+static int
+arm_copy_unmodified (struct gdbarch *gdbarch, uint32_t insn,
+                    const char *iname, struct displaced_step_closure *dsc)
 {
-  struct gdbarch *gdbarch = get_frame_arch (frame);
-  enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
-  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
-  unsigned long pc_val;
-  unsigned long this_instr;
-  unsigned long status;
-  CORE_ADDR nextpc;
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying insn %.8lx, "
+                       "opcode/class '%s' unmodified\n", (unsigned long) insn,
+                       iname);
 
-  if (arm_frame_is_thumb (frame))
-    return thumb_get_next_pc_raw (frame, pc, insert_bkpt);
+  dsc->modinsn[0] = insn;
 
-  pc_val = (unsigned long) pc;
-  this_instr = read_memory_unsigned_integer (pc, 4, byte_order_for_code);
+  return 0;
+}
 
-  status = get_frame_register_unsigned (frame, ARM_PS_REGNUM);
-  nextpc = (CORE_ADDR) (pc_val + 4);   /* Default case */
+static int
+thumb_copy_unmodified_32bit (struct gdbarch *gdbarch, uint16_t insn1,
+                            uint16_t insn2, const char *iname,
+                            struct displaced_step_closure *dsc)
+{
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying insn %.4x %.4x, "
+                       "opcode/class '%s' unmodified\n", insn1, insn2,
+                       iname);
 
-  if (bits (this_instr, 28, 31) == INST_NV)
-    switch (bits (this_instr, 24, 27))
-      {
-      case 0xa:
-      case 0xb:
-       {
-         /* Branch with Link and change to Thumb.  */
-         nextpc = BranchDest (pc, this_instr);
-         nextpc |= bit (this_instr, 24) << 1;
-         nextpc = MAKE_THUMB_ADDR (nextpc);
-         break;
-       }
-      case 0xc:
-      case 0xd:
-      case 0xe:
-       /* Coprocessor register transfer.  */
-        if (bits (this_instr, 12, 15) == 15)
-         error (_("Invalid update to pc in instruction"));
-       break;
-      }
-  else if (condition_true (bits (this_instr, 28, 31), status))
-    {
-      switch (bits (this_instr, 24, 27))
-       {
-       case 0x0:
-       case 0x1:                       /* data processing */
-       case 0x2:
-       case 0x3:
-         {
-           unsigned long operand1, operand2, result = 0;
-           unsigned long rn;
-           int c;
+  dsc->modinsn[0] = insn1;
+  dsc->modinsn[1] = insn2;
+  dsc->numinsns = 2;
 
-           if (bits (this_instr, 12, 15) != 15)
-             break;
+  return 0;
+}
 
-           if (bits (this_instr, 22, 25) == 0
-               && bits (this_instr, 4, 7) == 9)        /* multiply */
-             error (_("Invalid update to pc in instruction"));
+/* Copy 16-bit Thumb(Thumb and 16-bit Thumb-2) instruction without any
+   modification.  */
+static int
+thumb_copy_unmodified_16bit (struct gdbarch *gdbarch, unsigned int insn,
+                            const char *iname,
+                            struct displaced_step_closure *dsc)
+{
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying insn %.4x, "
+                       "opcode/class '%s' unmodified\n", insn,
+                       iname);
 
-           /* BX <reg>, BLX <reg> */
-           if (bits (this_instr, 4, 27) == 0x12fff1
-               || bits (this_instr, 4, 27) == 0x12fff3)
-             {
-               rn = bits (this_instr, 0, 3);
-               nextpc = (rn == 15) ? pc_val + 8
-                                   : get_frame_register_unsigned (frame, rn);
-               return nextpc;
-             }
+  dsc->modinsn[0] = insn;
 
-           /* Multiply into PC */
-           c = (status & FLAG_C) ? 1 : 0;
-           rn = bits (this_instr, 16, 19);
-           operand1 = (rn == 15) ? pc_val + 8
-                                 : get_frame_register_unsigned (frame, rn);
+  return 0;
+}
 
-           if (bit (this_instr, 25))
-             {
-               unsigned long immval = bits (this_instr, 0, 7);
-               unsigned long rotate = 2 * bits (this_instr, 8, 11);
-               operand2 = ((immval >> rotate) | (immval << (32 - rotate)))
-                 & 0xffffffff;
-             }
-           else                /* operand 2 is a shifted register */
-             operand2 = shifted_reg_val (frame, this_instr, c, pc_val, status);
+/* Preload instructions with immediate offset.  */
 
-           switch (bits (this_instr, 21, 24))
-             {
-             case 0x0: /*and */
-               result = operand1 & operand2;
-               break;
+static void
+cleanup_preload (struct gdbarch *gdbarch,
+                struct regcache *regs, struct displaced_step_closure *dsc)
+{
+  displaced_write_reg (regs, dsc, 0, dsc->tmp[0], CANNOT_WRITE_PC);
+  if (!dsc->u.preload.immed)
+    displaced_write_reg (regs, dsc, 1, dsc->tmp[1], CANNOT_WRITE_PC);
+}
 
-             case 0x1: /*eor */
-               result = operand1 ^ operand2;
-               break;
+static void
+install_preload (struct gdbarch *gdbarch, struct regcache *regs,
+                struct displaced_step_closure *dsc, unsigned int rn)
+{
+  ULONGEST rn_val;
+  /* Preload instructions:
 
-             case 0x2: /*sub */
-               result = operand1 - operand2;
-               break;
+     {pli/pld} [rn, #+/-imm]
+     ->
+     {pli/pld} [r0, #+/-imm].  */
 
-             case 0x3: /*rsb */
-               result = operand2 - operand1;
-               break;
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  rn_val = displaced_read_reg (regs, dsc, rn);
+  displaced_write_reg (regs, dsc, 0, rn_val, CANNOT_WRITE_PC);
+  dsc->u.preload.immed = 1;
 
-             case 0x4: /*add */
-               result = operand1 + operand2;
-               break;
+  dsc->cleanup = &cleanup_preload;
+}
 
-             case 0x5: /*adc */
-               result = operand1 + operand2 + c;
-               break;
+static int
+arm_copy_preload (struct gdbarch *gdbarch, uint32_t insn, struct regcache *regs,
+                 struct displaced_step_closure *dsc)
+{
+  unsigned int rn = bits (insn, 16, 19);
+
+  if (!insn_references_pc (insn, 0x000f0000ul))
+    return arm_copy_unmodified (gdbarch, insn, "preload", dsc);
+
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying preload insn %.8lx\n",
+                       (unsigned long) insn);
+
+  dsc->modinsn[0] = insn & 0xfff0ffff;
+
+  install_preload (gdbarch, regs, dsc, rn);
+
+  return 0;
+}
+
+static int
+thumb2_copy_preload (struct gdbarch *gdbarch, uint16_t insn1, uint16_t insn2,
+                    struct regcache *regs, struct displaced_step_closure *dsc)
+{
+  unsigned int rn = bits (insn1, 0, 3);
+  unsigned int u_bit = bit (insn1, 7);
+  int imm12 = bits (insn2, 0, 11);
+  ULONGEST pc_val;
+
+  if (rn != ARM_PC_REGNUM)
+    return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2, "preload", dsc);
+
+  /* PC is only allowed to use in PLI (immediate,literal) Encoding T3, and
+     PLD (literal) Encoding T1.  */
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying pld/pli pc (0x%x) %c imm12 %.4x\n",
+                       (unsigned int) dsc->insn_addr, u_bit ? '+' : '-',
+                       imm12);
+
+  if (!u_bit)
+    imm12 = -1 * imm12;
+
+  /* Rewrite instruction {pli/pld} PC imm12 into:
+     Prepare: tmp[0] <- r0, tmp[1] <- r1, r0 <- pc, r1 <- imm12
+
+     {pli/pld} [r0, r1]
+
+     Cleanup: r0 <- tmp[0], r1 <- tmp[1].  */
+
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  dsc->tmp[1] = displaced_read_reg (regs, dsc, 1);
+
+  pc_val = displaced_read_reg (regs, dsc, ARM_PC_REGNUM);
+
+  displaced_write_reg (regs, dsc, 0, pc_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 1, imm12, CANNOT_WRITE_PC);
+  dsc->u.preload.immed = 0;
+
+  /* {pli/pld} [r0, r1] */
+  dsc->modinsn[0] = insn1 & 0xfff0;
+  dsc->modinsn[1] = 0xf001;
+  dsc->numinsns = 2;
+
+  dsc->cleanup = &cleanup_preload;
+  return 0;
+}
+
+/* Preload instructions with register offset.  */
+
+static void
+install_preload_reg(struct gdbarch *gdbarch, struct regcache *regs,
+                   struct displaced_step_closure *dsc, unsigned int rn,
+                   unsigned int rm)
+{
+  ULONGEST rn_val, rm_val;
+
+  /* Preload register-offset instructions:
+
+     {pli/pld} [rn, rm {, shift}]
+     ->
+     {pli/pld} [r0, r1 {, shift}].  */
+
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  dsc->tmp[1] = displaced_read_reg (regs, dsc, 1);
+  rn_val = displaced_read_reg (regs, dsc, rn);
+  rm_val = displaced_read_reg (regs, dsc, rm);
+  displaced_write_reg (regs, dsc, 0, rn_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 1, rm_val, CANNOT_WRITE_PC);
+  dsc->u.preload.immed = 0;
+
+  dsc->cleanup = &cleanup_preload;
+}
+
+static int
+arm_copy_preload_reg (struct gdbarch *gdbarch, uint32_t insn,
+                     struct regcache *regs,
+                     struct displaced_step_closure *dsc)
+{
+  unsigned int rn = bits (insn, 16, 19);
+  unsigned int rm = bits (insn, 0, 3);
 
-             case 0x6: /*sbc */
-               result = operand1 - operand2 + c;
-               break;
 
-             case 0x7: /*rsc */
-               result = operand2 - operand1 + c;
-               break;
+  if (!insn_references_pc (insn, 0x000f000ful))
+    return arm_copy_unmodified (gdbarch, insn, "preload reg", dsc);
 
-             case 0x8:
-             case 0x9:
-             case 0xa:
-             case 0xb: /* tst, teq, cmp, cmn */
-               result = (unsigned long) nextpc;
-               break;
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying preload insn %.8lx\n",
+                       (unsigned long) insn);
 
-             case 0xc: /*orr */
-               result = operand1 | operand2;
-               break;
+  dsc->modinsn[0] = (insn & 0xfff0fff0) | 0x1;
 
-             case 0xd: /*mov */
-               /* Always step into a function.  */
-               result = operand2;
-               break;
+  install_preload_reg (gdbarch, regs, dsc, rn, rm);
+  return 0;
+}
 
-             case 0xe: /*bic */
-               result = operand1 & ~operand2;
-               break;
+/* Copy/cleanup coprocessor load and store instructions.  */
 
-             case 0xf: /*mvn */
-               result = ~operand2;
-               break;
-             }
+static void
+cleanup_copro_load_store (struct gdbarch *gdbarch,
+                         struct regcache *regs,
+                         struct displaced_step_closure *dsc)
+{
+  ULONGEST rn_val = displaced_read_reg (regs, dsc, 0);
 
-            /* In 26-bit APCS the bottom two bits of the result are 
-              ignored, and we always end up in ARM state.  */
-           if (!arm_apcs_32)
-             nextpc = arm_addr_bits_remove (gdbarch, result);
-           else
-             nextpc = result;
+  displaced_write_reg (regs, dsc, 0, dsc->tmp[0], CANNOT_WRITE_PC);
 
-           break;
-         }
+  if (dsc->u.ldst.writeback)
+    displaced_write_reg (regs, dsc, dsc->u.ldst.rn, rn_val, LOAD_WRITE_PC);
+}
 
-       case 0x4:
-       case 0x5:               /* data transfer */
-       case 0x6:
-       case 0x7:
-         if (bit (this_instr, 20))
-           {
-             /* load */
-             if (bits (this_instr, 12, 15) == 15)
-               {
-                 /* rd == pc */
-                 unsigned long rn;
-                 unsigned long base;
+static void
+install_copro_load_store (struct gdbarch *gdbarch, struct regcache *regs,
+                         struct displaced_step_closure *dsc,
+                         int writeback, unsigned int rn)
+{
+  ULONGEST rn_val;
 
-                 if (bit (this_instr, 22))
-                   error (_("Invalid update to pc in instruction"));
+  /* Coprocessor load/store instructions:
 
-                 /* byte write to PC */
-                 rn = bits (this_instr, 16, 19);
-                 base = (rn == 15) ? pc_val + 8
-                                   : get_frame_register_unsigned (frame, rn);
-                 if (bit (this_instr, 24))
-                   {
-                     /* pre-indexed */
-                     int c = (status & FLAG_C) ? 1 : 0;
-                     unsigned long offset =
-                     (bit (this_instr, 25)
-                      ? shifted_reg_val (frame, this_instr, c, pc_val, status)
-                      : bits (this_instr, 0, 11));
+     {stc/stc2} [<Rn>, #+/-imm]  (and other immediate addressing modes)
+     ->
+     {stc/stc2} [r0, #+/-imm].
 
-                     if (bit (this_instr, 23))
-                       base += offset;
-                     else
-                       base -= offset;
-                   }
-                 nextpc = (CORE_ADDR) read_memory_integer ((CORE_ADDR) base,
-                                                           4, byte_order);
-               }
-           }
-         break;
+     ldc/ldc2 are handled identically.  */
 
-       case 0x8:
-       case 0x9:               /* block transfer */
-         if (bit (this_instr, 20))
-           {
-             /* LDM */
-             if (bit (this_instr, 15))
-               {
-                 /* loading pc */
-                 int offset = 0;
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  rn_val = displaced_read_reg (regs, dsc, rn);
+  /* PC should be 4-byte aligned.  */
+  rn_val = rn_val & 0xfffffffc;
+  displaced_write_reg (regs, dsc, 0, rn_val, CANNOT_WRITE_PC);
 
-                 if (bit (this_instr, 23))
-                   {
-                     /* up */
-                     unsigned long reglist = bits (this_instr, 0, 14);
-                     offset = bitcount (reglist) * 4;
-                     if (bit (this_instr, 24))         /* pre */
-                       offset += 4;
-                   }
-                 else if (bit (this_instr, 24))
-                   offset = -4;
+  dsc->u.ldst.writeback = writeback;
+  dsc->u.ldst.rn = rn;
 
-                 {
-                   unsigned long rn_val =
-                   get_frame_register_unsigned (frame,
-                                                bits (this_instr, 16, 19));
-                   nextpc =
-                     (CORE_ADDR) read_memory_integer ((CORE_ADDR) (rn_val
-                                                                 + offset),
-                                                      4, byte_order);
-                 }
-               }
-           }
-         break;
+  dsc->cleanup = &cleanup_copro_load_store;
+}
 
-       case 0xb:               /* branch & link */
-       case 0xa:               /* branch */
-         {
-           nextpc = BranchDest (pc, this_instr);
-           break;
-         }
+static int
+arm_copy_copro_load_store (struct gdbarch *gdbarch, uint32_t insn,
+                          struct regcache *regs,
+                          struct displaced_step_closure *dsc)
+{
+  unsigned int rn = bits (insn, 16, 19);
 
-       case 0xc:
-       case 0xd:
-       case 0xe:               /* coproc ops */
-         break;
-       case 0xf:               /* SWI */
-         {
-           struct gdbarch_tdep *tdep;
-           tdep = gdbarch_tdep (gdbarch);
+  if (!insn_references_pc (insn, 0x000f0000ul))
+    return arm_copy_unmodified (gdbarch, insn, "copro load/store", dsc);
 
-           if (tdep->syscall_next_pc != NULL)
-             nextpc = tdep->syscall_next_pc (frame);
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying coprocessor "
+                       "load/store insn %.8lx\n", (unsigned long) insn);
 
-         }
-         break;
+  dsc->modinsn[0] = insn & 0xfff0ffff;
 
-       default:
-         fprintf_filtered (gdb_stderr, _("Bad bit-field extraction\n"));
-         return (pc);
-       }
-    }
+  install_copro_load_store (gdbarch, regs, dsc, bit (insn, 25), rn);
 
-  return nextpc;
+  return 0;
 }
 
-CORE_ADDR
-arm_get_next_pc (struct frame_info *frame, CORE_ADDR pc)
+static int
+thumb2_copy_copro_load_store (struct gdbarch *gdbarch, uint16_t insn1,
+                             uint16_t insn2, struct regcache *regs,
+                             struct displaced_step_closure *dsc)
 {
-  struct gdbarch *gdbarch = get_frame_arch (frame);
-  CORE_ADDR nextpc = 
-    gdbarch_addr_bits_remove (gdbarch, 
-                             arm_get_next_pc_raw (frame, pc, TRUE));
-  if (nextpc == pc)
-    error (_("Infinite loop detected"));
-  return nextpc;
-}
+  unsigned int rn = bits (insn1, 0, 3);
 
-/* single_step() is called just before we want to resume the inferior,
-   if we want to single-step it but there is no hardware or kernel
-   single-step support.  We find the target of the coming instruction
-   and breakpoint it.  */
+  if (rn != ARM_PC_REGNUM)
+    return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                       "copro load/store", dsc);
 
-int
-arm_software_single_step (struct frame_info *frame)
-{
-  struct gdbarch *gdbarch = get_frame_arch (frame);
-  struct address_space *aspace = get_frame_address_space (frame);
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying coprocessor "
+                       "load/store insn %.4x%.4x\n", insn1, insn2);
 
-  /* NOTE: This may insert the wrong breakpoint instruction when
-     single-stepping over a mode-changing instruction, if the
-     CPSR heuristics are used.  */
+  dsc->modinsn[0] = insn1 & 0xfff0;
+  dsc->modinsn[1] = insn2;
+  dsc->numinsns = 2;
 
-  CORE_ADDR next_pc = arm_get_next_pc (frame, get_frame_pc (frame));
-  insert_single_step_breakpoint (gdbarch, aspace, next_pc);
+  /* This function is called for copying instruction LDC/LDC2/VLDR, which
+     doesn't support writeback, so pass 0.  */
+  install_copro_load_store (gdbarch, regs, dsc, 0, rn);
 
-  return 1;
+  return 0;
 }
 
-/* Given BUF, which is OLD_LEN bytes ending at ENDADDR, expand
-   the buffer to be NEW_LEN bytes ending at ENDADDR.  Return
-   NULL if an error occurs.  BUF is freed.  */
+/* Clean up branch instructions (actually perform the branch, by setting
+   PC).  */
 
-static gdb_byte *
-extend_buffer_earlier (gdb_byte *buf, CORE_ADDR endaddr,
-                      int old_len, int new_len)
+static void
+cleanup_branch (struct gdbarch *gdbarch, struct regcache *regs,
+               struct displaced_step_closure *dsc)
 {
-  gdb_byte *new_buf, *middle;
-  int bytes_to_read = new_len - old_len;
+  uint32_t status = displaced_read_reg (regs, dsc, ARM_PS_REGNUM);
+  int branch_taken = condition_true (dsc->u.branch.cond, status);
+  enum pc_write_style write_pc = dsc->u.branch.exchange
+                                ? BX_WRITE_PC : BRANCH_WRITE_PC;
 
-  new_buf = xmalloc (new_len);
-  memcpy (new_buf + bytes_to_read, buf, old_len);
-  xfree (buf);
-  if (target_read_memory (endaddr - new_len, new_buf, bytes_to_read) != 0)
+  if (!branch_taken)
+    return;
+
+  if (dsc->u.branch.link)
     {
-      xfree (new_buf);
-      return NULL;
+      /* The value of LR should be the next insn of current one.  In order
+       not to confuse logic hanlding later insn `bx lr', if current insn mode
+       is Thumb, the bit 0 of LR value should be set to 1.  */
+      ULONGEST next_insn_addr = dsc->insn_addr + dsc->insn_size;
+
+      if (dsc->is_thumb)
+       next_insn_addr |= 0x1;
+
+      displaced_write_reg (regs, dsc, ARM_LR_REGNUM, next_insn_addr,
+                          CANNOT_WRITE_PC);
     }
-  return new_buf;
-}
 
-/* An IT block is at most the 2-byte IT instruction followed by
-   four 4-byte instructions.  The furthest back we must search to
-   find an IT block that affects the current instruction is thus
-   2 + 3 * 4 == 14 bytes.  */
-#define MAX_IT_BLOCK_PREFIX 14
+  displaced_write_reg (regs, dsc, ARM_PC_REGNUM, dsc->u.branch.dest, write_pc);
+}
 
-/* Use a quick scan if there are more than this many bytes of
-   code.  */
-#define IT_SCAN_THRESHOLD 32
+/* Copy B/BL/BLX instructions with immediate destinations.  */
 
-/* Adjust a breakpoint's address to move breakpoints out of IT blocks.
-   A breakpoint in an IT block may not be hit, depending on the
-   condition flags.  */
-static CORE_ADDR
-arm_adjust_breakpoint_address (struct gdbarch *gdbarch, CORE_ADDR bpaddr)
+static void
+install_b_bl_blx (struct gdbarch *gdbarch, struct regcache *regs,
+                 struct displaced_step_closure *dsc,
+                 unsigned int cond, int exchange, int link, long offset)
 {
-  gdb_byte *buf;
-  char map_type;
-  CORE_ADDR boundary, func_start;
-  int buf_len, buf2_len;
-  enum bfd_endian order = gdbarch_byte_order_for_code (gdbarch);
-  int i, any, last_it, last_it_count;
+  /* Implement "BL<cond> <label>" as:
 
-  /* If we are using BKPT breakpoints, none of this is necessary.  */
-  if (gdbarch_tdep (gdbarch)->thumb2_breakpoint == NULL)
-    return bpaddr;
+     Preparation: cond <- instruction condition
+     Insn: mov r0, r0  (nop)
+     Cleanup: if (condition true) { r14 <- pc; pc <- label }.
 
-  /* ARM mode does not have this problem.  */
-  if (!arm_pc_is_thumb (gdbarch, bpaddr))
-    return bpaddr;
+     B<cond> similar, but don't set r14 in cleanup.  */
 
-  /* We are setting a breakpoint in Thumb code that could potentially
-     contain an IT block.  The first step is to find how much Thumb
-     code there is; we do not need to read outside of known Thumb
-     sequences.  */
-  map_type = arm_find_mapping_symbol (bpaddr, &boundary);
-  if (map_type == 0)
-    /* Thumb-2 code must have mapping symbols to have a chance.  */
-    return bpaddr;
+  dsc->u.branch.cond = cond;
+  dsc->u.branch.link = link;
+  dsc->u.branch.exchange = exchange;
+
+  dsc->u.branch.dest = dsc->insn_addr;
+  if (link && exchange)
+    /* For BLX, offset is computed from the Align (PC, 4).  */
+    dsc->u.branch.dest = dsc->u.branch.dest & 0xfffffffc;
+
+  if (dsc->is_thumb)
+    dsc->u.branch.dest += 4 + offset;
+  else
+    dsc->u.branch.dest += 8 + offset;
+
+  dsc->cleanup = &cleanup_branch;
+}
+static int
+arm_copy_b_bl_blx (struct gdbarch *gdbarch, uint32_t insn,
+                  struct regcache *regs, struct displaced_step_closure *dsc)
+{
+  unsigned int cond = bits (insn, 28, 31);
+  int exchange = (cond == 0xf);
+  int link = exchange || bit (insn, 24);
+  long offset;
 
-  bpaddr = gdbarch_addr_bits_remove (gdbarch, bpaddr);
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying %s immediate insn "
+                       "%.8lx\n", (exchange) ? "blx" : (link) ? "bl" : "b",
+                       (unsigned long) insn);
+  if (exchange)
+    /* For BLX, set bit 0 of the destination.  The cleanup_branch function will
+       then arrange the switch into Thumb mode.  */
+    offset = (bits (insn, 0, 23) << 2) | (bit (insn, 24) << 1) | 1;
+  else
+    offset = bits (insn, 0, 23) << 2;
 
-  if (find_pc_partial_function (bpaddr, NULL, &func_start, NULL)
-      && func_start > boundary)
-    boundary = func_start;
+  if (bit (offset, 25))
+    offset = offset | ~0x3ffffff;
 
-  /* Search for a candidate IT instruction.  We have to do some fancy
-     footwork to distinguish a real IT instruction from the second
-     half of a 32-bit instruction, but there is no need for that if
-     there's no candidate.  */
-  buf_len = min (bpaddr - boundary, MAX_IT_BLOCK_PREFIX);
-  if (buf_len == 0)
-    /* No room for an IT instruction.  */
-    return bpaddr;
+  dsc->modinsn[0] = ARM_NOP;
 
-  buf = xmalloc (buf_len);
-  if (target_read_memory (bpaddr - buf_len, buf, buf_len) != 0)
-    return bpaddr;
-  any = 0;
-  for (i = 0; i < buf_len; i += 2)
-    {
-      unsigned short inst1 = extract_unsigned_integer (&buf[i], 2, order);
-      if ((inst1 & 0xff00) == 0xbf00 && (inst1 & 0x000f) != 0)
+  install_b_bl_blx (gdbarch, regs, dsc, cond, exchange, link, offset);
+  return 0;
+}
+
+static int
+thumb2_copy_b_bl_blx (struct gdbarch *gdbarch, uint16_t insn1,
+                     uint16_t insn2, struct regcache *regs,
+                     struct displaced_step_closure *dsc)
+{
+  int link = bit (insn2, 14);
+  int exchange = link && !bit (insn2, 12);
+  int cond = INST_AL;
+  long offset = 0;
+  int j1 = bit (insn2, 13);
+  int j2 = bit (insn2, 11);
+  int s = sbits (insn1, 10, 10);
+  int i1 = !(j1 ^ bit (insn1, 10));
+  int i2 = !(j2 ^ bit (insn1, 10));
+
+  if (!link && !exchange) /* B */
+    {
+      offset = (bits (insn2, 0, 10) << 1);
+      if (bit (insn2, 12)) /* Encoding T4 */
        {
-         any = 1;
-         break;
+         offset |= (bits (insn1, 0, 9) << 12)
+           | (i2 << 22)
+           | (i1 << 23)
+           | (s << 24);
+         cond = INST_AL;
+       }
+      else /* Encoding T3 */
+       {
+         offset |= (bits (insn1, 0, 5) << 12)
+           | (j1 << 18)
+           | (j2 << 19)
+           | (s << 20);
+         cond = bits (insn1, 6, 9);
        }
     }
-  if (any == 0)
+  else
     {
-      xfree (buf);
-      return bpaddr;
+      offset = (bits (insn1, 0, 9) << 12);
+      offset |= ((i2 << 22) | (i1 << 23) | (s << 24));
+      offset |= exchange ?
+       (bits (insn2, 1, 10) << 2) : (bits (insn2, 0, 10) << 1);
     }
 
-  /* OK, the code bytes before this instruction contain at least one
-     halfword which resembles an IT instruction.  We know that it's
-     Thumb code, but there are still two possibilities.  Either the
-     halfword really is an IT instruction, or it is the second half of
-     a 32-bit Thumb instruction.  The only way we can tell is to
-     scan forwards from a known instruction boundary.  */
-  if (bpaddr - boundary > IT_SCAN_THRESHOLD)
-    {
-      int definite;
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying %s insn "
+                       "%.4x %.4x with offset %.8lx\n",
+                       link ? (exchange) ? "blx" : "bl" : "b",
+                       insn1, insn2, offset);
 
-      /* There's a lot of code before this instruction.  Start with an
-        optimistic search; it's easy to recognize halfwords that can
-        not be the start of a 32-bit instruction, and use that to
-        lock on to the instruction boundaries.  */
-      buf = extend_buffer_earlier (buf, bpaddr, buf_len, IT_SCAN_THRESHOLD);
-      if (buf == NULL)
-       return bpaddr;
-      buf_len = IT_SCAN_THRESHOLD;
+  dsc->modinsn[0] = THUMB_NOP;
 
-      definite = 0;
-      for (i = 0; i < buf_len - sizeof (buf) && ! definite; i += 2)
-       {
-         unsigned short inst1 = extract_unsigned_integer (&buf[i], 2, order);
-         if (thumb_insn_size (inst1) == 2)
-           {
-             definite = 1;
-             break;
-           }
-       }
+  install_b_bl_blx (gdbarch, regs, dsc, cond, exchange, link, offset);
+  return 0;
+}
 
-      /* At this point, if DEFINITE, BUF[I] is the first place we
-        are sure that we know the instruction boundaries, and it is far
-        enough from BPADDR that we could not miss an IT instruction
-        affecting BPADDR.  If ! DEFINITE, give up - start from a
-        known boundary.  */
-      if (! definite)
-       {
-         buf = extend_buffer_earlier (buf, bpaddr, buf_len, bpaddr - boundary);
-         if (buf == NULL)
-           return bpaddr;
-         buf_len = bpaddr - boundary;
-         i = 0;
-       }
-    }
-  else
+/* Copy B Thumb instructions.  */
+static int
+thumb_copy_b (struct gdbarch *gdbarch, unsigned short insn,
+             struct displaced_step_closure *dsc)
+{
+  unsigned int cond = 0;
+  int offset = 0;
+  unsigned short bit_12_15 = bits (insn, 12, 15);
+  CORE_ADDR from = dsc->insn_addr;
+
+  if (bit_12_15 == 0xd)
     {
-      buf = extend_buffer_earlier (buf, bpaddr, buf_len, bpaddr - boundary);
-      if (buf == NULL)
-       return bpaddr;
-      buf_len = bpaddr - boundary;
-      i = 0;
+      /* offset = SignExtend (imm8:0, 32) */
+      offset = sbits ((insn << 1), 0, 8);
+      cond = bits (insn, 8, 11);
     }
-
-  /* Scan forwards.  Find the last IT instruction before BPADDR.  */
-  last_it = -1;
-  last_it_count = 0;
-  while (i < buf_len)
+  else if (bit_12_15 == 0xe) /* Encoding T2 */
     {
-      unsigned short inst1 = extract_unsigned_integer (&buf[i], 2, order);
-      last_it_count--;
-      if ((inst1 & 0xff00) == 0xbf00 && (inst1 & 0x000f) != 0)
-       {
-         last_it = i;
-         if (inst1 & 0x0001)
-           last_it_count = 4;
-         else if (inst1 & 0x0002)
-           last_it_count = 3;
-         else if (inst1 & 0x0004)
-           last_it_count = 2;
-         else
-           last_it_count = 1;
-       }
-      i += thumb_insn_size (inst1);
+      offset = sbits ((insn << 1), 0, 11);
+      cond = INST_AL;
     }
 
-  xfree (buf);
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying b immediate insn %.4x "
+                       "with offset %d\n", insn, offset);
 
-  if (last_it == -1)
-    /* There wasn't really an IT instruction after all.  */
-    return bpaddr;
+  dsc->u.branch.cond = cond;
+  dsc->u.branch.link = 0;
+  dsc->u.branch.exchange = 0;
+  dsc->u.branch.dest = from + 4 + offset;
 
-  if (last_it_count < 1)
-    /* It was too far away.  */
-    return bpaddr;
+  dsc->modinsn[0] = THUMB_NOP;
 
-  /* This really is a trouble spot.  Move the breakpoint to the IT
-     instruction.  */
-  return bpaddr - buf_len + last_it;
+  dsc->cleanup = &cleanup_branch;
+
+  return 0;
 }
 
-/* ARM displaced stepping support.
+/* Copy BX/BLX with register-specified destinations.  */
 
-   Generally ARM displaced stepping works as follows:
+static void
+install_bx_blx_reg (struct gdbarch *gdbarch, struct regcache *regs,
+                   struct displaced_step_closure *dsc, int link,
+                   unsigned int cond, unsigned int rm)
+{
+  /* Implement {BX,BLX}<cond> <reg>" as:
 
-   1. When an instruction is to be single-stepped, it is first decoded by
-      arm_process_displaced_insn (called from arm_displaced_step_copy_insn).
-      Depending on the type of instruction, it is then copied to a scratch
-      location, possibly in a modified form.  The copy_* set of functions
-      performs such modification, as necessary. A breakpoint is placed after
-      the modified instruction in the scratch space to return control to GDB.
-      Note in particular that instructions which modify the PC will no longer
-      do so after modification.
+     Preparation: cond <- instruction condition
+     Insn: mov r0, r0 (nop)
+     Cleanup: if (condition true) { r14 <- pc; pc <- dest; }.
 
-   2. The instruction is single-stepped, by setting the PC to the scratch
-      location address, and resuming.  Control returns to GDB when the
-      breakpoint is hit.
+     Don't set r14 in cleanup for BX.  */
 
-   3. A cleanup function (cleanup_*) is called corresponding to the copy_*
-      function used for the current instruction.  This function's job is to
-      put the CPU/memory state back to what it would have been if the
-      instruction had been executed unmodified in its original location.  */
+  dsc->u.branch.dest = displaced_read_reg (regs, dsc, rm);
 
-/* NOP instruction (mov r0, r0).  */
-#define ARM_NOP                                0xe1a00000
+  dsc->u.branch.cond = cond;
+  dsc->u.branch.link = link;
 
-/* Helper for register reads for displaced stepping.  In particular, this
-   returns the PC as it would be seen by the instruction at its original
-   location.  */
+  dsc->u.branch.exchange = 1;
 
-ULONGEST
-displaced_read_reg (struct regcache *regs, CORE_ADDR from, int regno)
+  dsc->cleanup = &cleanup_branch;
+}
+
+static int
+arm_copy_bx_blx_reg (struct gdbarch *gdbarch, uint32_t insn,
+                    struct regcache *regs, struct displaced_step_closure *dsc)
 {
-  ULONGEST ret;
+  unsigned int cond = bits (insn, 28, 31);
+  /* BX:  x12xxx1x
+     BLX: x12xxx3x.  */
+  int link = bit (insn, 5);
+  unsigned int rm = bits (insn, 0, 3);
 
-  if (regno == 15)
-    {
-      if (debug_displaced)
-       fprintf_unfiltered (gdb_stdlog, "displaced: read pc value %.8lx\n",
-                           (unsigned long) from + 8);
-      return (ULONGEST) from + 8;  /* Pipeline offset.  */
-    }
-  else
-    {
-      regcache_cooked_read_unsigned (regs, regno, &ret);
-      if (debug_displaced)
-       fprintf_unfiltered (gdb_stdlog, "displaced: read r%d value %.8lx\n",
-                           regno, (unsigned long) ret);
-      return ret;
-    }
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying insn %.8lx",
+                       (unsigned long) insn);
+
+  dsc->modinsn[0] = ARM_NOP;
+
+  install_bx_blx_reg (gdbarch, regs, dsc, link, cond, rm);
+  return 0;
+}
+
+static int
+thumb_copy_bx_blx_reg (struct gdbarch *gdbarch, uint16_t insn,
+                      struct regcache *regs,
+                      struct displaced_step_closure *dsc)
+{
+  int link = bit (insn, 7);
+  unsigned int rm = bits (insn, 3, 6);
+
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying insn %.4x",
+                       (unsigned short) insn);
+
+  dsc->modinsn[0] = THUMB_NOP;
+
+  install_bx_blx_reg (gdbarch, regs, dsc, link, INST_AL, rm);
+
+  return 0;
+}
+
+
+/* Copy/cleanup arithmetic/logic instruction with immediate RHS.  */
+
+static void
+cleanup_alu_imm (struct gdbarch *gdbarch,
+                struct regcache *regs, struct displaced_step_closure *dsc)
+{
+  ULONGEST rd_val = displaced_read_reg (regs, dsc, 0);
+  displaced_write_reg (regs, dsc, 0, dsc->tmp[0], CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 1, dsc->tmp[1], CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, dsc->rd, rd_val, ALU_WRITE_PC);
+}
+
+static int
+arm_copy_alu_imm (struct gdbarch *gdbarch, uint32_t insn, struct regcache *regs,
+                 struct displaced_step_closure *dsc)
+{
+  unsigned int rn = bits (insn, 16, 19);
+  unsigned int rd = bits (insn, 12, 15);
+  unsigned int op = bits (insn, 21, 24);
+  int is_mov = (op == 0xd);
+  ULONGEST rd_val, rn_val;
+
+  if (!insn_references_pc (insn, 0x000ff000ul))
+    return arm_copy_unmodified (gdbarch, insn, "ALU immediate", dsc);
+
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying immediate %s insn "
+                       "%.8lx\n", is_mov ? "move" : "ALU",
+                       (unsigned long) insn);
+
+  /* Instruction is of form:
+
+     <op><cond> rd, [rn,] #imm
+
+     Rewrite as:
+
+     Preparation: tmp1, tmp2 <- r0, r1;
+                 r0, r1 <- rd, rn
+     Insn: <op><cond> r0, r1, #imm
+     Cleanup: rd <- r0; r0 <- tmp1; r1 <- tmp2
+  */
+
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  dsc->tmp[1] = displaced_read_reg (regs, dsc, 1);
+  rn_val = displaced_read_reg (regs, dsc, rn);
+  rd_val = displaced_read_reg (regs, dsc, rd);
+  displaced_write_reg (regs, dsc, 0, rd_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 1, rn_val, CANNOT_WRITE_PC);
+  dsc->rd = rd;
+
+  if (is_mov)
+    dsc->modinsn[0] = insn & 0xfff00fff;
+  else
+    dsc->modinsn[0] = (insn & 0xfff00fff) | 0x10000;
+
+  dsc->cleanup = &cleanup_alu_imm;
+
+  return 0;
 }
 
 static int
-displaced_in_arm_mode (struct regcache *regs)
+thumb2_copy_alu_imm (struct gdbarch *gdbarch, uint16_t insn1,
+                    uint16_t insn2, struct regcache *regs,
+                    struct displaced_step_closure *dsc)
 {
-  ULONGEST ps;
-  ULONGEST t_bit = arm_psr_thumb_bit (get_regcache_arch (regs));
+  unsigned int op = bits (insn1, 5, 8);
+  unsigned int rn, rm, rd;
+  ULONGEST rd_val, rn_val;
 
-  regcache_cooked_read_unsigned (regs, ARM_PS_REGNUM, &ps);
+  rn = bits (insn1, 0, 3); /* Rn */
+  rm = bits (insn2, 0, 3); /* Rm */
+  rd = bits (insn2, 8, 11); /* Rd */
 
-  return (ps & t_bit) == 0;
-}
+  /* This routine is only called for instruction MOV.  */
+  gdb_assert (op == 0x2 && rn == 0xf);
 
-/* Write to the PC as from a branch instruction.  */
+  if (rm != ARM_PC_REGNUM && rd != ARM_PC_REGNUM)
+    return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2, "ALU imm", dsc);
 
-static void
-branch_write_pc (struct regcache *regs, ULONGEST val)
-{
-  if (displaced_in_arm_mode (regs))
-    /* Note: If bits 0/1 are set, this branch would be unpredictable for
-       architecture versions < 6.  */
-    regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM, val & ~(ULONGEST) 0x3);
-  else
-    regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM, val & ~(ULONGEST) 0x1);
-}
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying reg %s insn %.4x%.4x\n",
+                       "ALU", insn1, insn2);
 
-/* Write to the PC as from a branch-exchange instruction.  */
+  /* Instruction is of form:
 
-static void
-bx_write_pc (struct regcache *regs, ULONGEST val)
-{
-  ULONGEST ps;
-  ULONGEST t_bit = arm_psr_thumb_bit (get_regcache_arch (regs));
+     <op><cond> rd, [rn,] #imm
 
-  regcache_cooked_read_unsigned (regs, ARM_PS_REGNUM, &ps);
+     Rewrite as:
 
-  if ((val & 1) == 1)
-    {
-      regcache_cooked_write_unsigned (regs, ARM_PS_REGNUM, ps | t_bit);
-      regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM, val & 0xfffffffe);
-    }
-  else if ((val & 2) == 0)
-    {
-      regcache_cooked_write_unsigned (regs, ARM_PS_REGNUM, ps & ~t_bit);
-      regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM, val);
-    }
-  else
-    {
-      /* Unpredictable behaviour.  Try to do something sensible (switch to ARM
-         mode, align dest to 4 bytes).  */
-      warning (_("Single-stepping BX to non-word-aligned ARM instruction."));
-      regcache_cooked_write_unsigned (regs, ARM_PS_REGNUM, ps & ~t_bit);
-      regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM, val & 0xfffffffc);
-    }
-}
+     Preparation: tmp1, tmp2 <- r0, r1;
+                 r0, r1 <- rd, rn
+     Insn: <op><cond> r0, r1, #imm
+     Cleanup: rd <- r0; r0 <- tmp1; r1 <- tmp2
+  */
 
-/* Write to the PC as if from a load instruction.  */
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  dsc->tmp[1] = displaced_read_reg (regs, dsc, 1);
+  rn_val = displaced_read_reg (regs, dsc, rn);
+  rd_val = displaced_read_reg (regs, dsc, rd);
+  displaced_write_reg (regs, dsc, 0, rd_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 1, rn_val, CANNOT_WRITE_PC);
+  dsc->rd = rd;
 
-static void
-load_write_pc (struct regcache *regs, ULONGEST val)
-{
-  if (DISPLACED_STEPPING_ARCH_VERSION >= 5)
-    bx_write_pc (regs, val);
-  else
-    branch_write_pc (regs, val);
+  dsc->modinsn[0] = insn1;
+  dsc->modinsn[1] = ((insn2 & 0xf0f0) | 0x1);
+  dsc->numinsns = 2;
+
+  dsc->cleanup = &cleanup_alu_imm;
+
+  return 0;
 }
 
-/* Write to the PC as if from an ALU instruction.  */
+/* Copy/cleanup arithmetic/logic insns with register RHS.  */
 
 static void
-alu_write_pc (struct regcache *regs, ULONGEST val)
+cleanup_alu_reg (struct gdbarch *gdbarch,
+                struct regcache *regs, struct displaced_step_closure *dsc)
 {
-  if (DISPLACED_STEPPING_ARCH_VERSION >= 7 && displaced_in_arm_mode (regs))
-    bx_write_pc (regs, val);
-  else
-    branch_write_pc (regs, val);
-}
+  ULONGEST rd_val;
+  int i;
 
-/* Helper for writing to registers for displaced stepping.  Writing to the PC
-   has a varying effects depending on the instruction which does the write:
-   this is controlled by the WRITE_PC argument.  */
+  rd_val = displaced_read_reg (regs, dsc, 0);
 
-void
-displaced_write_reg (struct regcache *regs, struct displaced_step_closure *dsc,
-                    int regno, ULONGEST val, enum pc_write_style write_pc)
+  for (i = 0; i < 3; i++)
+    displaced_write_reg (regs, dsc, i, dsc->tmp[i], CANNOT_WRITE_PC);
+
+  displaced_write_reg (regs, dsc, dsc->rd, rd_val, ALU_WRITE_PC);
+}
+
+static void
+install_alu_reg (struct gdbarch *gdbarch, struct regcache *regs,
+                struct displaced_step_closure *dsc,
+                unsigned int rd, unsigned int rn, unsigned int rm)
 {
-  if (regno == 15)
-    {
-      if (debug_displaced)
-       fprintf_unfiltered (gdb_stdlog, "displaced: writing pc %.8lx\n",
-                           (unsigned long) val);
-      switch (write_pc)
-       {
-       case BRANCH_WRITE_PC:
-         branch_write_pc (regs, val);
-         break;
+  ULONGEST rd_val, rn_val, rm_val;
 
-       case BX_WRITE_PC:
-         bx_write_pc (regs, val);
-         break;
+  /* Instruction is of form:
 
-       case LOAD_WRITE_PC:
-         load_write_pc (regs, val);
-         break;
+     <op><cond> rd, [rn,] rm [, <shift>]
 
-       case ALU_WRITE_PC:
-         alu_write_pc (regs, val);
-         break;
+     Rewrite as:
 
-       case CANNOT_WRITE_PC:
-         warning (_("Instruction wrote to PC in an unexpected way when "
-                    "single-stepping"));
-         break;
+     Preparation: tmp1, tmp2, tmp3 <- r0, r1, r2;
+                 r0, r1, r2 <- rd, rn, rm
+     Insn: <op><cond> r0, r1, r2 [, <shift>]
+     Cleanup: rd <- r0; r0, r1, r2 <- tmp1, tmp2, tmp3
+  */
 
-       default:
-         internal_error (__FILE__, __LINE__,
-                         _("Invalid argument to displaced_write_reg"));
-       }
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  dsc->tmp[1] = displaced_read_reg (regs, dsc, 1);
+  dsc->tmp[2] = displaced_read_reg (regs, dsc, 2);
+  rd_val = displaced_read_reg (regs, dsc, rd);
+  rn_val = displaced_read_reg (regs, dsc, rn);
+  rm_val = displaced_read_reg (regs, dsc, rm);
+  displaced_write_reg (regs, dsc, 0, rd_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 1, rn_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 2, rm_val, CANNOT_WRITE_PC);
+  dsc->rd = rd;
 
-      dsc->wrote_to_pc = 1;
-    }
-  else
-    {
-      if (debug_displaced)
-       fprintf_unfiltered (gdb_stdlog, "displaced: writing r%d value %.8lx\n",
-                           regno, (unsigned long) val);
-      regcache_cooked_write_unsigned (regs, regno, val);
-    }
+  dsc->cleanup = &cleanup_alu_reg;
 }
 
-/* This function is used to concisely determine if an instruction INSN
-   references PC.  Register fields of interest in INSN should have the
-   corresponding fields of BITMASK set to 0b1111.  The function returns return 1
-   if any of these fields in INSN reference the PC (also 0b1111, r15), else it
-   returns 0.  */
-
 static int
-insn_references_pc (uint32_t insn, uint32_t bitmask)
+arm_copy_alu_reg (struct gdbarch *gdbarch, uint32_t insn, struct regcache *regs,
+                 struct displaced_step_closure *dsc)
 {
-  uint32_t lowbit = 1;
-
-  while (bitmask != 0)
-    {
-      uint32_t mask;
-
-      for (; lowbit && (bitmask & lowbit) == 0; lowbit <<= 1)
-       ;
-
-      if (!lowbit)
-       break;
+  unsigned int op = bits (insn, 21, 24);
+  int is_mov = (op == 0xd);
 
-      mask = lowbit * 0xf;
+  if (!insn_references_pc (insn, 0x000ff00ful))
+    return arm_copy_unmodified (gdbarch, insn, "ALU reg", dsc);
 
-      if ((insn & mask) == mask)
-       return 1;
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying reg %s insn %.8lx\n",
+                       is_mov ? "move" : "ALU", (unsigned long) insn);
 
-      bitmask &= ~mask;
-    }
+  if (is_mov)
+    dsc->modinsn[0] = (insn & 0xfff00ff0) | 0x2;
+  else
+    dsc->modinsn[0] = (insn & 0xfff00ff0) | 0x10002;
 
+  install_alu_reg (gdbarch, regs, dsc, bits (insn, 12, 15), bits (insn, 16, 19),
+                  bits (insn, 0, 3));
   return 0;
 }
 
-/* The simplest copy function.  Many instructions have the same effect no
-   matter what address they are executed at: in those cases, use this.  */
-
 static int
-copy_unmodified (struct gdbarch *gdbarch, uint32_t insn,
-                const char *iname, struct displaced_step_closure *dsc)
+thumb_copy_alu_reg (struct gdbarch *gdbarch, uint16_t insn,
+                   struct regcache *regs,
+                   struct displaced_step_closure *dsc)
 {
+  unsigned rn, rm, rd;
+
+  rd = bits (insn, 3, 6);
+  rn = (bit (insn, 7) << 3) | bits (insn, 0, 2);
+  rm = 2;
+
+  if (rd != ARM_PC_REGNUM && rn != ARM_PC_REGNUM)
+    return thumb_copy_unmodified_16bit (gdbarch, insn, "ALU reg", dsc);
+
   if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying insn %.8lx, "
-                       "opcode/class '%s' unmodified\n", (unsigned long) insn,
-                       iname);
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying reg %s insn %.4x\n",
+                       "ALU", (unsigned short) insn);
 
-  dsc->modinsn[0] = insn;
+  dsc->modinsn[0] = ((insn & 0xff00) | 0x08);
+
+  install_alu_reg (gdbarch, regs, dsc, rd, rn, rm);
 
   return 0;
 }
 
-/* Preload instructions with immediate offset.  */
+/* Cleanup/copy arithmetic/logic insns with shifted register RHS.  */
 
 static void
-cleanup_preload (struct gdbarch *gdbarch,
-                struct regcache *regs, struct displaced_step_closure *dsc)
-{
-  displaced_write_reg (regs, dsc, 0, dsc->tmp[0], CANNOT_WRITE_PC);
-  if (!dsc->u.preload.immed)
-    displaced_write_reg (regs, dsc, 1, dsc->tmp[1], CANNOT_WRITE_PC);
-}
-
-static int
-copy_preload (struct gdbarch *gdbarch, uint32_t insn, struct regcache *regs,
-             struct displaced_step_closure *dsc)
+cleanup_alu_shifted_reg (struct gdbarch *gdbarch,
+                        struct regcache *regs,
+                        struct displaced_step_closure *dsc)
 {
-  unsigned int rn = bits (insn, 16, 19);
-  ULONGEST rn_val;
-  CORE_ADDR from = dsc->insn_addr;
+  ULONGEST rd_val = displaced_read_reg (regs, dsc, 0);
+  int i;
 
-  if (!insn_references_pc (insn, 0x000f0000ul))
-    return copy_unmodified (gdbarch, insn, "preload", dsc);
+  for (i = 0; i < 4; i++)
+    displaced_write_reg (regs, dsc, i, dsc->tmp[i], CANNOT_WRITE_PC);
 
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying preload insn %.8lx\n",
-                       (unsigned long) insn);
+  displaced_write_reg (regs, dsc, dsc->rd, rd_val, ALU_WRITE_PC);
+}
 
-  /* Preload instructions:
+static void
+install_alu_shifted_reg (struct gdbarch *gdbarch, struct regcache *regs,
+                        struct displaced_step_closure *dsc,
+                        unsigned int rd, unsigned int rn, unsigned int rm,
+                        unsigned rs)
+{
+  int i;
+  ULONGEST rd_val, rn_val, rm_val, rs_val;
 
-     {pli/pld} [rn, #+/-imm]
-     ->
-     {pli/pld} [r0, #+/-imm].  */
+  /* Instruction is of form:
 
-  dsc->tmp[0] = displaced_read_reg (regs, from, 0);
-  rn_val = displaced_read_reg (regs, from, rn);
-  displaced_write_reg (regs, dsc, 0, rn_val, CANNOT_WRITE_PC);
+     <op><cond> rd, [rn,] rm, <shift> rs
 
-  dsc->u.preload.immed = 1;
+     Rewrite as:
 
-  dsc->modinsn[0] = insn & 0xfff0ffff;
+     Preparation: tmp1, tmp2, tmp3, tmp4 <- r0, r1, r2, r3
+                 r0, r1, r2, r3 <- rd, rn, rm, rs
+     Insn: <op><cond> r0, r1, r2, <shift> r3
+     Cleanup: tmp5 <- r0
+             r0, r1, r2, r3 <- tmp1, tmp2, tmp3, tmp4
+             rd <- tmp5
+  */
 
-  dsc->cleanup = &cleanup_preload;
+  for (i = 0; i < 4; i++)
+    dsc->tmp[i] = displaced_read_reg (regs, dsc, i);
 
-  return 0;
+  rd_val = displaced_read_reg (regs, dsc, rd);
+  rn_val = displaced_read_reg (regs, dsc, rn);
+  rm_val = displaced_read_reg (regs, dsc, rm);
+  rs_val = displaced_read_reg (regs, dsc, rs);
+  displaced_write_reg (regs, dsc, 0, rd_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 1, rn_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 2, rm_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 3, rs_val, CANNOT_WRITE_PC);
+  dsc->rd = rd;
+  dsc->cleanup = &cleanup_alu_shifted_reg;
 }
 
-/* Preload instructions with register offset.  */
-
 static int
-copy_preload_reg (struct gdbarch *gdbarch, uint32_t insn, struct regcache *regs,
-                 struct displaced_step_closure *dsc)
+arm_copy_alu_shifted_reg (struct gdbarch *gdbarch, uint32_t insn,
+                         struct regcache *regs,
+                         struct displaced_step_closure *dsc)
 {
-  unsigned int rn = bits (insn, 16, 19);
-  unsigned int rm = bits (insn, 0, 3);
-  ULONGEST rn_val, rm_val;
-  CORE_ADDR from = dsc->insn_addr;
+  unsigned int op = bits (insn, 21, 24);
+  int is_mov = (op == 0xd);
+  unsigned int rd, rn, rm, rs;
 
-  if (!insn_references_pc (insn, 0x000f000ful))
-    return copy_unmodified (gdbarch, insn, "preload reg", dsc);
+  if (!insn_references_pc (insn, 0x000fff0ful))
+    return arm_copy_unmodified (gdbarch, insn, "ALU shifted reg", dsc);
 
   if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying preload insn %.8lx\n",
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying shifted reg %s insn "
+                       "%.8lx\n", is_mov ? "move" : "ALU",
                        (unsigned long) insn);
 
-  /* Preload register-offset instructions:
+  rn = bits (insn, 16, 19);
+  rm = bits (insn, 0, 3);
+  rs = bits (insn, 8, 11);
+  rd = bits (insn, 12, 15);
+
+  if (is_mov)
+    dsc->modinsn[0] = (insn & 0xfff000f0) | 0x302;
+  else
+    dsc->modinsn[0] = (insn & 0xfff000f0) | 0x10302;
+
+  install_alu_shifted_reg (gdbarch, regs, dsc, rd, rn, rm, rs);
 
-     {pli/pld} [rn, rm {, shift}]
-     ->
-     {pli/pld} [r0, r1 {, shift}].  */
+  return 0;
+}
 
-  dsc->tmp[0] = displaced_read_reg (regs, from, 0);
-  dsc->tmp[1] = displaced_read_reg (regs, from, 1);
-  rn_val = displaced_read_reg (regs, from, rn);
-  rm_val = displaced_read_reg (regs, from, rm);
-  displaced_write_reg (regs, dsc, 0, rn_val, CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 1, rm_val, CANNOT_WRITE_PC);
+/* Clean up load instructions.  */
 
-  dsc->u.preload.immed = 0;
+static void
+cleanup_load (struct gdbarch *gdbarch, struct regcache *regs,
+             struct displaced_step_closure *dsc)
+{
+  ULONGEST rt_val, rt_val2 = 0, rn_val;
 
-  dsc->modinsn[0] = (insn & 0xfff0fff0) | 0x1;
+  rt_val = displaced_read_reg (regs, dsc, 0);
+  if (dsc->u.ldst.xfersize == 8)
+    rt_val2 = displaced_read_reg (regs, dsc, 1);
+  rn_val = displaced_read_reg (regs, dsc, 2);
 
-  dsc->cleanup = &cleanup_preload;
+  displaced_write_reg (regs, dsc, 0, dsc->tmp[0], CANNOT_WRITE_PC);
+  if (dsc->u.ldst.xfersize > 4)
+    displaced_write_reg (regs, dsc, 1, dsc->tmp[1], CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 2, dsc->tmp[2], CANNOT_WRITE_PC);
+  if (!dsc->u.ldst.immed)
+    displaced_write_reg (regs, dsc, 3, dsc->tmp[3], CANNOT_WRITE_PC);
 
-  return 0;
+  /* Handle register writeback.  */
+  if (dsc->u.ldst.writeback)
+    displaced_write_reg (regs, dsc, dsc->u.ldst.rn, rn_val, CANNOT_WRITE_PC);
+  /* Put result in right place.  */
+  displaced_write_reg (regs, dsc, dsc->rd, rt_val, LOAD_WRITE_PC);
+  if (dsc->u.ldst.xfersize == 8)
+    displaced_write_reg (regs, dsc, dsc->rd + 1, rt_val2, LOAD_WRITE_PC);
 }
 
-/* Copy/cleanup coprocessor load and store instructions.  */
+/* Clean up store instructions.  */
 
 static void
-cleanup_copro_load_store (struct gdbarch *gdbarch,
-                         struct regcache *regs,
-                         struct displaced_step_closure *dsc)
+cleanup_store (struct gdbarch *gdbarch, struct regcache *regs,
+              struct displaced_step_closure *dsc)
 {
-  ULONGEST rn_val = displaced_read_reg (regs, dsc->insn_addr, 0);
+  ULONGEST rn_val = displaced_read_reg (regs, dsc, 2);
 
   displaced_write_reg (regs, dsc, 0, dsc->tmp[0], CANNOT_WRITE_PC);
+  if (dsc->u.ldst.xfersize > 4)
+    displaced_write_reg (regs, dsc, 1, dsc->tmp[1], CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 2, dsc->tmp[2], CANNOT_WRITE_PC);
+  if (!dsc->u.ldst.immed)
+    displaced_write_reg (regs, dsc, 3, dsc->tmp[3], CANNOT_WRITE_PC);
+  if (!dsc->u.ldst.restore_r4)
+    displaced_write_reg (regs, dsc, 4, dsc->tmp[4], CANNOT_WRITE_PC);
 
+  /* Writeback.  */
   if (dsc->u.ldst.writeback)
-    displaced_write_reg (regs, dsc, dsc->u.ldst.rn, rn_val, LOAD_WRITE_PC);
+    displaced_write_reg (regs, dsc, dsc->u.ldst.rn, rn_val, CANNOT_WRITE_PC);
 }
 
+/* Copy "extra" load/store instructions.  These are halfword/doubleword
+   transfers, which have a different encoding to byte/word transfers.  */
+
 static int
-copy_copro_load_store (struct gdbarch *gdbarch, uint32_t insn,
-                      struct regcache *regs,
-                      struct displaced_step_closure *dsc)
+arm_copy_extra_ld_st (struct gdbarch *gdbarch, uint32_t insn, int unpriveleged,
+                     struct regcache *regs, struct displaced_step_closure *dsc)
 {
+  unsigned int op1 = bits (insn, 20, 24);
+  unsigned int op2 = bits (insn, 5, 6);
+  unsigned int rt = bits (insn, 12, 15);
   unsigned int rn = bits (insn, 16, 19);
-  ULONGEST rn_val;
-  CORE_ADDR from = dsc->insn_addr;
+  unsigned int rm = bits (insn, 0, 3);
+  char load[12]     = {0, 1, 0, 1, 1, 1, 1, 1, 0, 1, 0, 1};
+  char bytesize[12] = {2, 2, 2, 2, 8, 1, 8, 1, 8, 2, 8, 2};
+  int immed = (op1 & 0x4) != 0;
+  int opcode;
+  ULONGEST rt_val, rt_val2 = 0, rn_val, rm_val = 0;
 
-  if (!insn_references_pc (insn, 0x000f0000ul))
-    return copy_unmodified (gdbarch, insn, "copro load/store", dsc);
+  if (!insn_references_pc (insn, 0x000ff00ful))
+    return arm_copy_unmodified (gdbarch, insn, "extra load/store", dsc);
 
   if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying coprocessor "
-                       "load/store insn %.8lx\n", (unsigned long) insn);
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying %sextra load/store "
+                       "insn %.8lx\n", unpriveleged ? "unpriveleged " : "",
+                       (unsigned long) insn);
 
-  /* Coprocessor load/store instructions:
+  opcode = ((op2 << 2) | (op1 & 0x1) | ((op1 & 0x4) >> 1)) - 4;
 
-     {stc/stc2} [<Rn>, #+/-imm]  (and other immediate addressing modes)
-     ->
-     {stc/stc2} [r0, #+/-imm].
+  if (opcode < 0)
+    internal_error (__FILE__, __LINE__,
+                   _("copy_extra_ld_st: instruction decode error"));
 
-     ldc/ldc2 are handled identically.  */
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  dsc->tmp[1] = displaced_read_reg (regs, dsc, 1);
+  dsc->tmp[2] = displaced_read_reg (regs, dsc, 2);
+  if (!immed)
+    dsc->tmp[3] = displaced_read_reg (regs, dsc, 3);
 
-  dsc->tmp[0] = displaced_read_reg (regs, from, 0);
-  rn_val = displaced_read_reg (regs, from, rn);
-  displaced_write_reg (regs, dsc, 0, rn_val, CANNOT_WRITE_PC);
+  rt_val = displaced_read_reg (regs, dsc, rt);
+  if (bytesize[opcode] == 8)
+    rt_val2 = displaced_read_reg (regs, dsc, rt + 1);
+  rn_val = displaced_read_reg (regs, dsc, rn);
+  if (!immed)
+    rm_val = displaced_read_reg (regs, dsc, rm);
+
+  displaced_write_reg (regs, dsc, 0, rt_val, CANNOT_WRITE_PC);
+  if (bytesize[opcode] == 8)
+    displaced_write_reg (regs, dsc, 1, rt_val2, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 2, rn_val, CANNOT_WRITE_PC);
+  if (!immed)
+    displaced_write_reg (regs, dsc, 3, rm_val, CANNOT_WRITE_PC);
 
-  dsc->u.ldst.writeback = bit (insn, 25);
+  dsc->rd = rt;
+  dsc->u.ldst.xfersize = bytesize[opcode];
   dsc->u.ldst.rn = rn;
+  dsc->u.ldst.immed = immed;
+  dsc->u.ldst.writeback = bit (insn, 24) == 0 || bit (insn, 21) != 0;
+  dsc->u.ldst.restore_r4 = 0;
 
-  dsc->modinsn[0] = insn & 0xfff0ffff;
+  if (immed)
+    /* {ldr,str}<width><cond> rt, [rt2,] [rn, #imm]
+       ->
+       {ldr,str}<width><cond> r0, [r1,] [r2, #imm].  */
+    dsc->modinsn[0] = (insn & 0xfff00fff) | 0x20000;
+  else
+    /* {ldr,str}<width><cond> rt, [rt2,] [rn, +/-rm]
+       ->
+       {ldr,str}<width><cond> r0, [r1,] [r2, +/-r3].  */
+    dsc->modinsn[0] = (insn & 0xfff00ff0) | 0x20003;
 
-  dsc->cleanup = &cleanup_copro_load_store;
+  dsc->cleanup = load[opcode] ? &cleanup_load : &cleanup_store;
 
   return 0;
 }
 
-/* Clean up branch instructions (actually perform the branch, by setting
-   PC).  */
+/* Copy byte/half word/word loads and stores.  */
 
 static void
-cleanup_branch (struct gdbarch *gdbarch, struct regcache *regs,
-               struct displaced_step_closure *dsc)
+install_load_store (struct gdbarch *gdbarch, struct regcache *regs,
+                   struct displaced_step_closure *dsc, int load,
+                   int immed, int writeback, int size, int usermode,
+                   int rt, int rm, int rn)
 {
-  ULONGEST from = dsc->insn_addr;
-  uint32_t status = displaced_read_reg (regs, from, ARM_PS_REGNUM);
-  int branch_taken = condition_true (dsc->u.branch.cond, status);
-  enum pc_write_style write_pc = dsc->u.branch.exchange
-                                ? BX_WRITE_PC : BRANCH_WRITE_PC;
+  ULONGEST rt_val, rn_val, rm_val = 0;
 
-  if (!branch_taken)
-    return;
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  dsc->tmp[2] = displaced_read_reg (regs, dsc, 2);
+  if (!immed)
+    dsc->tmp[3] = displaced_read_reg (regs, dsc, 3);
+  if (!load)
+    dsc->tmp[4] = displaced_read_reg (regs, dsc, 4);
 
-  if (dsc->u.branch.link)
-    {
-      ULONGEST pc = displaced_read_reg (regs, from, 15);
-      displaced_write_reg (regs, dsc, 14, pc - 4, CANNOT_WRITE_PC);
-    }
+  rt_val = displaced_read_reg (regs, dsc, rt);
+  rn_val = displaced_read_reg (regs, dsc, rn);
+  if (!immed)
+    rm_val = displaced_read_reg (regs, dsc, rm);
+
+  displaced_write_reg (regs, dsc, 0, rt_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 2, rn_val, CANNOT_WRITE_PC);
+  if (!immed)
+    displaced_write_reg (regs, dsc, 3, rm_val, CANNOT_WRITE_PC);
+  dsc->rd = rt;
+  dsc->u.ldst.xfersize = size;
+  dsc->u.ldst.rn = rn;
+  dsc->u.ldst.immed = immed;
+  dsc->u.ldst.writeback = writeback;
+
+  /* To write PC we can do:
+
+     Before this sequence of instructions:
+     r0 is the PC value got from displaced_read_reg, so r0 = from + 8;
+     r2 is the Rn value got from dispalced_read_reg.
+
+     Insn1: push {pc} Write address of STR instruction + offset on stack
+     Insn2: pop  {r4} Read it back from stack, r4 = addr(Insn1) + offset
+     Insn3: sub r4, r4, pc   r4 = addr(Insn1) + offset - pc
+                                = addr(Insn1) + offset - addr(Insn3) - 8
+                                = offset - 16
+     Insn4: add r4, r4, #8   r4 = offset - 8
+     Insn5: add r0, r0, r4   r0 = from + 8 + offset - 8
+                                = from + offset
+     Insn6: str r0, [r2, #imm] (or str r0, [r2, r3])
+
+     Otherwise we don't know what value to write for PC, since the offset is
+     architecture-dependent (sometimes PC+8, sometimes PC+12).  More details
+     of this can be found in Section "Saving from r15" in
+     http://infocenter.arm.com/help/index.jsp?topic=/com.arm.doc.dui0204g/Cihbjifh.html */
 
-  displaced_write_reg (regs, dsc, 15, dsc->u.branch.dest, write_pc);
+  dsc->cleanup = load ? &cleanup_load : &cleanup_store;
 }
 
-/* Copy B/BL/BLX instructions with immediate destinations.  */
 
 static int
-copy_b_bl_blx (struct gdbarch *gdbarch, uint32_t insn,
-              struct regcache *regs, struct displaced_step_closure *dsc)
+thumb2_copy_load_literal (struct gdbarch *gdbarch, uint16_t insn1,
+                         uint16_t insn2, struct regcache *regs,
+                         struct displaced_step_closure *dsc, int size)
 {
-  unsigned int cond = bits (insn, 28, 31);
-  int exchange = (cond == 0xf);
-  int link = exchange || bit (insn, 24);
-  CORE_ADDR from = dsc->insn_addr;
-  long offset;
+  unsigned int u_bit = bit (insn1, 7);
+  unsigned int rt = bits (insn2, 12, 15);
+  int imm12 = bits (insn2, 0, 11);
+  ULONGEST pc_val;
 
   if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying %s immediate insn "
-                       "%.8lx\n", (exchange) ? "blx" : (link) ? "bl" : "b",
-                       (unsigned long) insn);
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying ldr pc (0x%x) R%d %c imm12 %.4x\n",
+                       (unsigned int) dsc->insn_addr, rt, u_bit ? '+' : '-',
+                       imm12);
 
-  /* Implement "BL<cond> <label>" as:
+  if (!u_bit)
+    imm12 = -1 * imm12;
 
-     Preparation: cond <- instruction condition
-     Insn: mov r0, r0  (nop)
-     Cleanup: if (condition true) { r14 <- pc; pc <- label }.
+  /* Rewrite instruction LDR Rt imm12 into:
 
-     B<cond> similar, but don't set r14 in cleanup.  */
+     Prepare: tmp[0] <- r0, tmp[1] <- r2, tmp[2] <- r3, r2 <- pc, r3 <- imm12
 
-  if (exchange)
-    /* For BLX, set bit 0 of the destination.  The cleanup_branch function will
-       then arrange the switch into Thumb mode.  */
-    offset = (bits (insn, 0, 23) << 2) | (bit (insn, 24) << 1) | 1;
-  else
-    offset = bits (insn, 0, 23) << 2;
+     LDR R0, R2, R3,
 
-  if (bit (offset, 25))
-    offset = offset | ~0x3ffffff;
+     Cleanup: rt <- r0, r0 <- tmp[0], r2 <- tmp[1], r3 <- tmp[2].  */
 
-  dsc->u.branch.cond = cond;
-  dsc->u.branch.link = link;
-  dsc->u.branch.exchange = exchange;
-  dsc->u.branch.dest = from + 8 + offset;
 
-  dsc->modinsn[0] = ARM_NOP;
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  dsc->tmp[2] = displaced_read_reg (regs, dsc, 2);
+  dsc->tmp[3] = displaced_read_reg (regs, dsc, 3);
 
-  dsc->cleanup = &cleanup_branch;
+  pc_val = displaced_read_reg (regs, dsc, ARM_PC_REGNUM);
+
+  pc_val = pc_val & 0xfffffffc;
+
+  displaced_write_reg (regs, dsc, 2, pc_val, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 3, imm12, CANNOT_WRITE_PC);
+
+  dsc->rd = rt;
+
+  dsc->u.ldst.xfersize = size;
+  dsc->u.ldst.immed = 0;
+  dsc->u.ldst.writeback = 0;
+  dsc->u.ldst.restore_r4 = 0;
+
+  /* LDR R0, R2, R3 */
+  dsc->modinsn[0] = 0xf852;
+  dsc->modinsn[1] = 0x3;
+  dsc->numinsns = 2;
+
+  dsc->cleanup = &cleanup_load;
 
   return 0;
 }
 
-/* Copy BX/BLX with register-specified destinations.  */
-
 static int
-copy_bx_blx_reg (struct gdbarch *gdbarch, uint32_t insn,
-                struct regcache *regs, struct displaced_step_closure *dsc)
+thumb2_copy_load_reg_imm (struct gdbarch *gdbarch, uint16_t insn1,
+                         uint16_t insn2, struct regcache *regs,
+                         struct displaced_step_closure *dsc,
+                         int writeback, int immed)
 {
-  unsigned int cond = bits (insn, 28, 31);
-  /* BX:  x12xxx1x
-     BLX: x12xxx3x.  */
-  int link = bit (insn, 5);
-  unsigned int rm = bits (insn, 0, 3);
-  CORE_ADDR from = dsc->insn_addr;
-
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying %s register insn "
-                       "%.8lx\n", (link) ? "blx" : "bx", (unsigned long) insn);
-
-  /* Implement {BX,BLX}<cond> <reg>" as:
+  unsigned int rt = bits (insn2, 12, 15);
+  unsigned int rn = bits (insn1, 0, 3);
+  unsigned int rm = bits (insn2, 0, 3);  /* Only valid if !immed.  */
+  /* In LDR (register), there is also a register Rm, which is not allowed to
+     be PC, so we don't have to check it.  */
 
-     Preparation: cond <- instruction condition
-     Insn: mov r0, r0 (nop)
-     Cleanup: if (condition true) { r14 <- pc; pc <- dest; }.
+  if (rt != ARM_PC_REGNUM && rn != ARM_PC_REGNUM)
+    return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2, "load",
+                                       dsc);
 
-     Don't set r14 in cleanup for BX.  */
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying ldr r%d [r%d] insn %.4x%.4x\n",
+                        rt, rn, insn1, insn2);
 
-  dsc->u.branch.dest = displaced_read_reg (regs, from, rm);
+  install_load_store (gdbarch, regs, dsc, 1, immed, writeback, 4,
+                     0, rt, rm, rn);
 
-  dsc->u.branch.cond = cond;
-  dsc->u.branch.link = link;
-  dsc->u.branch.exchange = 1;
+  dsc->u.ldst.restore_r4 = 0;
 
-  dsc->modinsn[0] = ARM_NOP;
+  if (immed)
+    /* ldr[b]<cond> rt, [rn, #imm], etc.
+       ->
+       ldr[b]<cond> r0, [r2, #imm].  */
+    {
+      dsc->modinsn[0] = (insn1 & 0xfff0) | 0x2;
+      dsc->modinsn[1] = insn2 & 0x0fff;
+    }
+  else
+    /* ldr[b]<cond> rt, [rn, rm], etc.
+       ->
+       ldr[b]<cond> r0, [r2, r3].  */
+    {
+      dsc->modinsn[0] = (insn1 & 0xfff0) | 0x2;
+      dsc->modinsn[1] = (insn2 & 0x0ff0) | 0x3;
+    }
 
-  dsc->cleanup = &cleanup_branch;
+  dsc->numinsns = 2;
 
   return 0;
 }
 
-/* Copy/cleanup arithmetic/logic instruction with immediate RHS. */
-
-static void
-cleanup_alu_imm (struct gdbarch *gdbarch,
-                struct regcache *regs, struct displaced_step_closure *dsc)
-{
-  ULONGEST rd_val = displaced_read_reg (regs, dsc->insn_addr, 0);
-  displaced_write_reg (regs, dsc, 0, dsc->tmp[0], CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 1, dsc->tmp[1], CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, dsc->rd, rd_val, ALU_WRITE_PC);
-}
 
 static int
-copy_alu_imm (struct gdbarch *gdbarch, uint32_t insn, struct regcache *regs,
-             struct displaced_step_closure *dsc)
+arm_copy_ldr_str_ldrb_strb (struct gdbarch *gdbarch, uint32_t insn,
+                           struct regcache *regs,
+                           struct displaced_step_closure *dsc,
+                           int load, int size, int usermode)
 {
+  int immed = !bit (insn, 25);
+  int writeback = (bit (insn, 24) == 0 || bit (insn, 21) != 0);
+  unsigned int rt = bits (insn, 12, 15);
   unsigned int rn = bits (insn, 16, 19);
-  unsigned int rd = bits (insn, 12, 15);
-  unsigned int op = bits (insn, 21, 24);
-  int is_mov = (op == 0xd);
-  ULONGEST rd_val, rn_val;
-  CORE_ADDR from = dsc->insn_addr;
+  unsigned int rm = bits (insn, 0, 3);  /* Only valid if !immed.  */
 
-  if (!insn_references_pc (insn, 0x000ff000ul))
-    return copy_unmodified (gdbarch, insn, "ALU immediate", dsc);
+  if (!insn_references_pc (insn, 0x000ff00ful))
+    return arm_copy_unmodified (gdbarch, insn, "load/store", dsc);
 
   if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying immediate %s insn "
-                       "%.8lx\n", is_mov ? "move" : "ALU",
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying %s%s r%d [r%d] insn %.8lx\n",
+                       load ? (size == 1 ? "ldrb" : "ldr")
+                            : (size == 1 ? "strb" : "str"), usermode ? "t" : "",
+                       rt, rn,
                        (unsigned long) insn);
 
-  /* Instruction is of form:
-
-     <op><cond> rd, [rn,] #imm
+  install_load_store (gdbarch, regs, dsc, load, immed, writeback, size,
+                     usermode, rt, rm, rn);
 
-     Rewrite as:
+  if (load || rt != ARM_PC_REGNUM)
+    {
+      dsc->u.ldst.restore_r4 = 0;
 
-     Preparation: tmp1, tmp2 <- r0, r1;
-                 r0, r1 <- rd, rn
-     Insn: <op><cond> r0, r1, #imm
-     Cleanup: rd <- r0; r0 <- tmp1; r1 <- tmp2
-  */
+      if (immed)
+       /* {ldr,str}[b]<cond> rt, [rn, #imm], etc.
+          ->
+          {ldr,str}[b]<cond> r0, [r2, #imm].  */
+       dsc->modinsn[0] = (insn & 0xfff00fff) | 0x20000;
+      else
+       /* {ldr,str}[b]<cond> rt, [rn, rm], etc.
+          ->
+          {ldr,str}[b]<cond> r0, [r2, r3].  */
+       dsc->modinsn[0] = (insn & 0xfff00ff0) | 0x20003;
+    }
+  else
+    {
+      /* We need to use r4 as scratch.  Make sure it's restored afterwards.  */
+      dsc->u.ldst.restore_r4 = 1;
+      dsc->modinsn[0] = 0xe92d8000;  /* push {pc} */
+      dsc->modinsn[1] = 0xe8bd0010;  /* pop  {r4} */
+      dsc->modinsn[2] = 0xe044400f;  /* sub r4, r4, pc.  */
+      dsc->modinsn[3] = 0xe2844008;  /* add r4, r4, #8.  */
+      dsc->modinsn[4] = 0xe0800004;  /* add r0, r0, r4.  */
 
-  dsc->tmp[0] = displaced_read_reg (regs, from, 0);
-  dsc->tmp[1] = displaced_read_reg (regs, from, 1);
-  rn_val = displaced_read_reg (regs, from, rn);
-  rd_val = displaced_read_reg (regs, from, rd);
-  displaced_write_reg (regs, dsc, 0, rd_val, CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 1, rn_val, CANNOT_WRITE_PC);
-  dsc->rd = rd;
+      /* As above.  */
+      if (immed)
+       dsc->modinsn[5] = (insn & 0xfff00fff) | 0x20000;
+      else
+       dsc->modinsn[5] = (insn & 0xfff00ff0) | 0x20003;
 
-  if (is_mov)
-    dsc->modinsn[0] = insn & 0xfff00fff;
-  else
-    dsc->modinsn[0] = (insn & 0xfff00fff) | 0x10000;
+      dsc->numinsns = 6;
+    }
 
-  dsc->cleanup = &cleanup_alu_imm;
+  dsc->cleanup = load ? &cleanup_load : &cleanup_store;
 
   return 0;
 }
 
-/* Copy/cleanup arithmetic/logic insns with register RHS.  */
+/* Cleanup LDM instructions with fully-populated register list.  This is an
+   unfortunate corner case: it's impossible to implement correctly by modifying
+   the instruction.  The issue is as follows: we have an instruction,
 
-static void
-cleanup_alu_reg (struct gdbarch *gdbarch,
-                struct regcache *regs, struct displaced_step_closure *dsc)
-{
-  ULONGEST rd_val;
-  int i;
+   ldm rN, {r0-r15}
 
-  rd_val = displaced_read_reg (regs, dsc->insn_addr, 0);
+   which we must rewrite to avoid loading PC.  A possible solution would be to
+   do the load in two halves, something like (with suitable cleanup
+   afterwards):
 
-  for (i = 0; i < 3; i++)
-    displaced_write_reg (regs, dsc, i, dsc->tmp[i], CANNOT_WRITE_PC);
+   mov r8, rN
+   ldm[id][ab] r8!, {r0-r7}
+   str r7, <temp>
+   ldm[id][ab] r8, {r7-r14}
+   <bkpt>
 
-  displaced_write_reg (regs, dsc, dsc->rd, rd_val, ALU_WRITE_PC);
-}
+   but at present there's no suitable place for <temp>, since the scratch space
+   is overwritten before the cleanup routine is called.  For now, we simply
+   emulate the instruction.  */
 
-static int
-copy_alu_reg (struct gdbarch *gdbarch, uint32_t insn, struct regcache *regs,
-             struct displaced_step_closure *dsc)
+static void
+cleanup_block_load_all (struct gdbarch *gdbarch, struct regcache *regs,
+                       struct displaced_step_closure *dsc)
 {
-  unsigned int rn = bits (insn, 16, 19);
-  unsigned int rm = bits (insn, 0, 3);
-  unsigned int rd = bits (insn, 12, 15);
-  unsigned int op = bits (insn, 21, 24);
-  int is_mov = (op == 0xd);
-  ULONGEST rd_val, rn_val, rm_val;
-  CORE_ADDR from = dsc->insn_addr;
+  int inc = dsc->u.block.increment;
+  int bump_before = dsc->u.block.before ? (inc ? 4 : -4) : 0;
+  int bump_after = dsc->u.block.before ? 0 : (inc ? 4 : -4);
+  uint32_t regmask = dsc->u.block.regmask;
+  int regno = inc ? 0 : 15;
+  CORE_ADDR xfer_addr = dsc->u.block.xfer_addr;
+  int exception_return = dsc->u.block.load && dsc->u.block.user
+                        && (regmask & 0x8000) != 0;
+  uint32_t status = displaced_read_reg (regs, dsc, ARM_PS_REGNUM);
+  int do_transfer = condition_true (dsc->u.block.cond, status);
+  enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
 
-  if (!insn_references_pc (insn, 0x000ff00ful))
-    return copy_unmodified (gdbarch, insn, "ALU reg", dsc);
+  if (!do_transfer)
+    return;
 
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying reg %s insn %.8lx\n",
-                       is_mov ? "move" : "ALU", (unsigned long) insn);
+  /* If the instruction is ldm rN, {...pc}^, I don't think there's anything
+     sensible we can do here.  Complain loudly.  */
+  if (exception_return)
+    error (_("Cannot single-step exception return"));
 
-  /* Instruction is of form:
+  /* We don't handle any stores here for now.  */
+  gdb_assert (dsc->u.block.load != 0);
 
-     <op><cond> rd, [rn,] rm [, <shift>]
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: emulating block transfer: "
+                       "%s %s %s\n", dsc->u.block.load ? "ldm" : "stm",
+                       dsc->u.block.increment ? "inc" : "dec",
+                       dsc->u.block.before ? "before" : "after");
 
-     Rewrite as:
+  while (regmask)
+    {
+      uint32_t memword;
 
-     Preparation: tmp1, tmp2, tmp3 <- r0, r1, r2;
-                 r0, r1, r2 <- rd, rn, rm
-     Insn: <op><cond> r0, r1, r2 [, <shift>]
-     Cleanup: rd <- r0; r0, r1, r2 <- tmp1, tmp2, tmp3
-  */
+      if (inc)
+       while (regno <= ARM_PC_REGNUM && (regmask & (1 << regno)) == 0)
+         regno++;
+      else
+       while (regno >= 0 && (regmask & (1 << regno)) == 0)
+         regno--;
 
-  dsc->tmp[0] = displaced_read_reg (regs, from, 0);
-  dsc->tmp[1] = displaced_read_reg (regs, from, 1);
-  dsc->tmp[2] = displaced_read_reg (regs, from, 2);
-  rd_val = displaced_read_reg (regs, from, rd);
-  rn_val = displaced_read_reg (regs, from, rn);
-  rm_val = displaced_read_reg (regs, from, rm);
-  displaced_write_reg (regs, dsc, 0, rd_val, CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 1, rn_val, CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 2, rm_val, CANNOT_WRITE_PC);
-  dsc->rd = rd;
+      xfer_addr += bump_before;
 
-  if (is_mov)
-    dsc->modinsn[0] = (insn & 0xfff00ff0) | 0x2;
-  else
-    dsc->modinsn[0] = (insn & 0xfff00ff0) | 0x10002;
+      memword = read_memory_unsigned_integer (xfer_addr, 4, byte_order);
+      displaced_write_reg (regs, dsc, regno, memword, LOAD_WRITE_PC);
 
-  dsc->cleanup = &cleanup_alu_reg;
+      xfer_addr += bump_after;
 
-  return 0;
+      regmask &= ~(1 << regno);
+    }
+
+  if (dsc->u.block.writeback)
+    displaced_write_reg (regs, dsc, dsc->u.block.rn, xfer_addr,
+                        CANNOT_WRITE_PC);
 }
 
-/* Cleanup/copy arithmetic/logic insns with shifted register RHS.  */
+/* Clean up an STM which included the PC in the register list.  */
 
 static void
-cleanup_alu_shifted_reg (struct gdbarch *gdbarch,
-                        struct regcache *regs,
-                        struct displaced_step_closure *dsc)
+cleanup_block_store_pc (struct gdbarch *gdbarch, struct regcache *regs,
+                       struct displaced_step_closure *dsc)
 {
-  ULONGEST rd_val = displaced_read_reg (regs, dsc->insn_addr, 0);
-  int i;
+  uint32_t status = displaced_read_reg (regs, dsc, ARM_PS_REGNUM);
+  int store_executed = condition_true (dsc->u.block.cond, status);
+  CORE_ADDR pc_stored_at, transferred_regs = bitcount (dsc->u.block.regmask);
+  CORE_ADDR stm_insn_addr;
+  uint32_t pc_val;
+  long offset;
+  enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
 
-  for (i = 0; i < 4; i++)
-    displaced_write_reg (regs, dsc, i, dsc->tmp[i], CANNOT_WRITE_PC);
+  /* If condition code fails, there's nothing else to do.  */
+  if (!store_executed)
+    return;
 
-  displaced_write_reg (regs, dsc, dsc->rd, rd_val, ALU_WRITE_PC);
+  if (dsc->u.block.increment)
+    {
+      pc_stored_at = dsc->u.block.xfer_addr + 4 * transferred_regs;
+
+      if (dsc->u.block.before)
+        pc_stored_at += 4;
+    }
+  else
+    {
+      pc_stored_at = dsc->u.block.xfer_addr;
+
+      if (dsc->u.block.before)
+        pc_stored_at -= 4;
+    }
+
+  pc_val = read_memory_unsigned_integer (pc_stored_at, 4, byte_order);
+  stm_insn_addr = dsc->scratch_base;
+  offset = pc_val - stm_insn_addr;
+
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: detected PC offset %.8lx for "
+                       "STM instruction\n", offset);
+
+  /* Rewrite the stored PC to the proper value for the non-displaced original
+     instruction.  */
+  write_memory_unsigned_integer (pc_stored_at, 4, byte_order,
+                                dsc->insn_addr + offset);
 }
 
-static int
-copy_alu_shifted_reg (struct gdbarch *gdbarch, uint32_t insn,
-                     struct regcache *regs, struct displaced_step_closure *dsc)
+/* Clean up an LDM which includes the PC in the register list.  We clumped all
+   the registers in the transferred list into a contiguous range r0...rX (to
+   avoid loading PC directly and losing control of the debugged program), so we
+   must undo that here.  */
+
+static void
+cleanup_block_load_pc (struct gdbarch *gdbarch,
+                      struct regcache *regs,
+                      struct displaced_step_closure *dsc)
 {
-  unsigned int rn = bits (insn, 16, 19);
-  unsigned int rm = bits (insn, 0, 3);
-  unsigned int rd = bits (insn, 12, 15);
-  unsigned int rs = bits (insn, 8, 11);
-  unsigned int op = bits (insn, 21, 24);
-  int is_mov = (op == 0xd), i;
-  ULONGEST rd_val, rn_val, rm_val, rs_val;
-  CORE_ADDR from = dsc->insn_addr;
+  uint32_t status = displaced_read_reg (regs, dsc, ARM_PS_REGNUM);
+  int load_executed = condition_true (dsc->u.block.cond, status), i;
+  unsigned int mask = dsc->u.block.regmask, write_reg = ARM_PC_REGNUM;
+  unsigned int regs_loaded = bitcount (mask);
+  unsigned int num_to_shuffle = regs_loaded, clobbered;
 
-  if (!insn_references_pc (insn, 0x000fff0ful))
-    return copy_unmodified (gdbarch, insn, "ALU shifted reg", dsc);
+  /* The method employed here will fail if the register list is fully populated
+     (we need to avoid loading PC directly).  */
+  gdb_assert (num_to_shuffle < 16);
 
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying shifted reg %s insn "
-                       "%.8lx\n", is_mov ? "move" : "ALU",
-                       (unsigned long) insn);
+  if (!load_executed)
+    return;
 
-  /* Instruction is of form:
+  clobbered = (1 << num_to_shuffle) - 1;
 
-     <op><cond> rd, [rn,] rm, <shift> rs
+  while (num_to_shuffle > 0)
+    {
+      if ((mask & (1 << write_reg)) != 0)
+       {
+         unsigned int read_reg = num_to_shuffle - 1;
 
-     Rewrite as:
+         if (read_reg != write_reg)
+           {
+             ULONGEST rval = displaced_read_reg (regs, dsc, read_reg);
+             displaced_write_reg (regs, dsc, write_reg, rval, LOAD_WRITE_PC);
+             if (debug_displaced)
+               fprintf_unfiltered (gdb_stdlog, _("displaced: LDM: move "
+                                   "loaded register r%d to r%d\n"), read_reg,
+                                   write_reg);
+           }
+         else if (debug_displaced)
+           fprintf_unfiltered (gdb_stdlog, _("displaced: LDM: register "
+                               "r%d already in the right place\n"),
+                               write_reg);
 
-     Preparation: tmp1, tmp2, tmp3, tmp4 <- r0, r1, r2, r3
-                 r0, r1, r2, r3 <- rd, rn, rm, rs
-     Insn: <op><cond> r0, r1, r2, <shift> r3
-     Cleanup: tmp5 <- r0
-             r0, r1, r2, r3 <- tmp1, tmp2, tmp3, tmp4
-             rd <- tmp5
-  */
+         clobbered &= ~(1 << write_reg);
 
-  for (i = 0; i < 4; i++)
-    dsc->tmp[i] = displaced_read_reg (regs, from, i);
+         num_to_shuffle--;
+       }
 
-  rd_val = displaced_read_reg (regs, from, rd);
-  rn_val = displaced_read_reg (regs, from, rn);
-  rm_val = displaced_read_reg (regs, from, rm);
-  rs_val = displaced_read_reg (regs, from, rs);
-  displaced_write_reg (regs, dsc, 0, rd_val, CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 1, rn_val, CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 2, rm_val, CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 3, rs_val, CANNOT_WRITE_PC);
-  dsc->rd = rd;
+      write_reg--;
+    }
 
-  if (is_mov)
-    dsc->modinsn[0] = (insn & 0xfff000f0) | 0x302;
-  else
-    dsc->modinsn[0] = (insn & 0xfff000f0) | 0x10302;
+  /* Restore any registers we scribbled over.  */
+  for (write_reg = 0; clobbered != 0; write_reg++)
+    {
+      if ((clobbered & (1 << write_reg)) != 0)
+       {
+         displaced_write_reg (regs, dsc, write_reg, dsc->tmp[write_reg],
+                              CANNOT_WRITE_PC);
+         if (debug_displaced)
+           fprintf_unfiltered (gdb_stdlog, _("displaced: LDM: restored "
+                               "clobbered register r%d\n"), write_reg);
+         clobbered &= ~(1 << write_reg);
+       }
+    }
 
-  dsc->cleanup = &cleanup_alu_shifted_reg;
+  /* Perform register writeback manually.  */
+  if (dsc->u.block.writeback)
+    {
+      ULONGEST new_rn_val = dsc->u.block.xfer_addr;
 
-  return 0;
+      if (dsc->u.block.increment)
+       new_rn_val += regs_loaded * 4;
+      else
+       new_rn_val -= regs_loaded * 4;
+
+      displaced_write_reg (regs, dsc, dsc->u.block.rn, new_rn_val,
+                          CANNOT_WRITE_PC);
+    }
 }
 
-/* Clean up load instructions.  */
+/* Handle ldm/stm, apart from some tricky cases which are unlikely to occur
+   in user-level code (in particular exception return, ldm rn, {...pc}^).  */
 
-static void
-cleanup_load (struct gdbarch *gdbarch, struct regcache *regs,
-             struct displaced_step_closure *dsc)
+static int
+arm_copy_block_xfer (struct gdbarch *gdbarch, uint32_t insn,
+                    struct regcache *regs,
+                    struct displaced_step_closure *dsc)
 {
-  ULONGEST rt_val, rt_val2 = 0, rn_val;
-  CORE_ADDR from = dsc->insn_addr;
+  int load = bit (insn, 20);
+  int user = bit (insn, 22);
+  int increment = bit (insn, 23);
+  int before = bit (insn, 24);
+  int writeback = bit (insn, 21);
+  int rn = bits (insn, 16, 19);
 
-  rt_val = displaced_read_reg (regs, from, 0);
-  if (dsc->u.ldst.xfersize == 8)
-    rt_val2 = displaced_read_reg (regs, from, 1);
-  rn_val = displaced_read_reg (regs, from, 2);
+  /* Block transfers which don't mention PC can be run directly
+     out-of-line.  */
+  if (rn != ARM_PC_REGNUM && (insn & 0x8000) == 0)
+    return arm_copy_unmodified (gdbarch, insn, "ldm/stm", dsc);
 
-  displaced_write_reg (regs, dsc, 0, dsc->tmp[0], CANNOT_WRITE_PC);
-  if (dsc->u.ldst.xfersize > 4)
-    displaced_write_reg (regs, dsc, 1, dsc->tmp[1], CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 2, dsc->tmp[2], CANNOT_WRITE_PC);
-  if (!dsc->u.ldst.immed)
-    displaced_write_reg (regs, dsc, 3, dsc->tmp[3], CANNOT_WRITE_PC);
+  if (rn == ARM_PC_REGNUM)
+    {
+      warning (_("displaced: Unpredictable LDM or STM with "
+                "base register r15"));
+      return arm_copy_unmodified (gdbarch, insn, "unpredictable ldm/stm", dsc);
+    }
 
-  /* Handle register writeback.  */
-  if (dsc->u.ldst.writeback)
-    displaced_write_reg (regs, dsc, dsc->u.ldst.rn, rn_val, CANNOT_WRITE_PC);
-  /* Put result in right place.  */
-  displaced_write_reg (regs, dsc, dsc->rd, rt_val, LOAD_WRITE_PC);
-  if (dsc->u.ldst.xfersize == 8)
-    displaced_write_reg (regs, dsc, dsc->rd + 1, rt_val2, LOAD_WRITE_PC);
-}
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying block transfer insn "
+                       "%.8lx\n", (unsigned long) insn);
 
-/* Clean up store instructions.  */
+  dsc->u.block.xfer_addr = displaced_read_reg (regs, dsc, rn);
+  dsc->u.block.rn = rn;
 
-static void
-cleanup_store (struct gdbarch *gdbarch, struct regcache *regs,
-              struct displaced_step_closure *dsc)
-{
-  CORE_ADDR from = dsc->insn_addr;
-  ULONGEST rn_val = displaced_read_reg (regs, from, 2);
+  dsc->u.block.load = load;
+  dsc->u.block.user = user;
+  dsc->u.block.increment = increment;
+  dsc->u.block.before = before;
+  dsc->u.block.writeback = writeback;
+  dsc->u.block.cond = bits (insn, 28, 31);
 
-  displaced_write_reg (regs, dsc, 0, dsc->tmp[0], CANNOT_WRITE_PC);
-  if (dsc->u.ldst.xfersize > 4)
-    displaced_write_reg (regs, dsc, 1, dsc->tmp[1], CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 2, dsc->tmp[2], CANNOT_WRITE_PC);
-  if (!dsc->u.ldst.immed)
-    displaced_write_reg (regs, dsc, 3, dsc->tmp[3], CANNOT_WRITE_PC);
-  if (!dsc->u.ldst.restore_r4)
-    displaced_write_reg (regs, dsc, 4, dsc->tmp[4], CANNOT_WRITE_PC);
+  dsc->u.block.regmask = insn & 0xffff;
 
-  /* Writeback.  */
-  if (dsc->u.ldst.writeback)
-    displaced_write_reg (regs, dsc, dsc->u.ldst.rn, rn_val, CANNOT_WRITE_PC);
-}
+  if (load)
+    {
+      if ((insn & 0xffff) == 0xffff)
+       {
+         /* LDM with a fully-populated register list.  This case is
+            particularly tricky.  Implement for now by fully emulating the
+            instruction (which might not behave perfectly in all cases, but
+            these instructions should be rare enough for that not to matter
+            too much).  */
+         dsc->modinsn[0] = ARM_NOP;
 
-/* Copy "extra" load/store instructions.  These are halfword/doubleword
-   transfers, which have a different encoding to byte/word transfers.  */
+         dsc->cleanup = &cleanup_block_load_all;
+       }
+      else
+       {
+         /* LDM of a list of registers which includes PC.  Implement by
+            rewriting the list of registers to be transferred into a
+            contiguous chunk r0...rX before doing the transfer, then shuffling
+            registers into the correct places in the cleanup routine.  */
+         unsigned int regmask = insn & 0xffff;
+         unsigned int num_in_list = bitcount (regmask), new_regmask, bit = 1;
+         unsigned int to = 0, from = 0, i, new_rn;
 
-static int
-copy_extra_ld_st (struct gdbarch *gdbarch, uint32_t insn, int unpriveleged,
-                 struct regcache *regs, struct displaced_step_closure *dsc)
-{
-  unsigned int op1 = bits (insn, 20, 24);
-  unsigned int op2 = bits (insn, 5, 6);
-  unsigned int rt = bits (insn, 12, 15);
-  unsigned int rn = bits (insn, 16, 19);
-  unsigned int rm = bits (insn, 0, 3);
-  char load[12]     = {0, 1, 0, 1, 1, 1, 1, 1, 0, 1, 0, 1};
-  char bytesize[12] = {2, 2, 2, 2, 8, 1, 8, 1, 8, 2, 8, 2};
-  int immed = (op1 & 0x4) != 0;
-  int opcode;
-  ULONGEST rt_val, rt_val2 = 0, rn_val, rm_val = 0;
-  CORE_ADDR from = dsc->insn_addr;
+         for (i = 0; i < num_in_list; i++)
+           dsc->tmp[i] = displaced_read_reg (regs, dsc, i);
 
-  if (!insn_references_pc (insn, 0x000ff00ful))
-    return copy_unmodified (gdbarch, insn, "extra load/store", dsc);
+         /* Writeback makes things complicated.  We need to avoid clobbering
+            the base register with one of the registers in our modified
+            register list, but just using a different register can't work in
+            all cases, e.g.:
 
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying %sextra load/store "
-                       "insn %.8lx\n", unpriveleged ? "unpriveleged " : "",
-                       (unsigned long) insn);
+              ldm r14!, {r0-r13,pc}
 
-  opcode = ((op2 << 2) | (op1 & 0x1) | ((op1 & 0x4) >> 1)) - 4;
+            which would need to be rewritten as:
 
-  if (opcode < 0)
-    internal_error (__FILE__, __LINE__,
-                   _("copy_extra_ld_st: instruction decode error"));
+              ldm rN!, {r0-r14}
 
-  dsc->tmp[0] = displaced_read_reg (regs, from, 0);
-  dsc->tmp[1] = displaced_read_reg (regs, from, 1);
-  dsc->tmp[2] = displaced_read_reg (regs, from, 2);
-  if (!immed)
-    dsc->tmp[3] = displaced_read_reg (regs, from, 3);
+            but that can't work, because there's no free register for N.
 
-  rt_val = displaced_read_reg (regs, from, rt);
-  if (bytesize[opcode] == 8)
-    rt_val2 = displaced_read_reg (regs, from, rt + 1);
-  rn_val = displaced_read_reg (regs, from, rn);
-  if (!immed)
-    rm_val = displaced_read_reg (regs, from, rm);
+            Solve this by turning off the writeback bit, and emulating
+            writeback manually in the cleanup routine.  */
 
-  displaced_write_reg (regs, dsc, 0, rt_val, CANNOT_WRITE_PC);
-  if (bytesize[opcode] == 8)
-    displaced_write_reg (regs, dsc, 1, rt_val2, CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 2, rn_val, CANNOT_WRITE_PC);
-  if (!immed)
-    displaced_write_reg (regs, dsc, 3, rm_val, CANNOT_WRITE_PC);
+         if (writeback)
+           insn &= ~(1 << 21);
 
-  dsc->rd = rt;
-  dsc->u.ldst.xfersize = bytesize[opcode];
-  dsc->u.ldst.rn = rn;
-  dsc->u.ldst.immed = immed;
-  dsc->u.ldst.writeback = bit (insn, 24) == 0 || bit (insn, 21) != 0;
-  dsc->u.ldst.restore_r4 = 0;
+         new_regmask = (1 << num_in_list) - 1;
 
-  if (immed)
-    /* {ldr,str}<width><cond> rt, [rt2,] [rn, #imm]
-       ->
-       {ldr,str}<width><cond> r0, [r1,] [r2, #imm].  */
-    dsc->modinsn[0] = (insn & 0xfff00fff) | 0x20000;
+         if (debug_displaced)
+           fprintf_unfiltered (gdb_stdlog, _("displaced: LDM r%d%s, "
+                               "{..., pc}: original reg list %.4x, modified "
+                               "list %.4x\n"), rn, writeback ? "!" : "",
+                               (int) insn & 0xffff, new_regmask);
+
+         dsc->modinsn[0] = (insn & ~0xffff) | (new_regmask & 0xffff);
+
+         dsc->cleanup = &cleanup_block_load_pc;
+       }
+    }
   else
-    /* {ldr,str}<width><cond> rt, [rt2,] [rn, +/-rm]
-       ->
-       {ldr,str}<width><cond> r0, [r1,] [r2, +/-r3].  */
-    dsc->modinsn[0] = (insn & 0xfff00ff0) | 0x20003;
+    {
+      /* STM of a list of registers which includes PC.  Run the instruction
+        as-is, but out of line: this will store the wrong value for the PC,
+        so we must manually fix up the memory in the cleanup routine.
+        Doing things this way has the advantage that we can auto-detect
+        the offset of the PC write (which is architecture-dependent) in
+        the cleanup routine.  */
+      dsc->modinsn[0] = insn;
 
-  dsc->cleanup = load[opcode] ? &cleanup_load : &cleanup_store;
+      dsc->cleanup = &cleanup_block_store_pc;
+    }
 
   return 0;
 }
 
-/* Copy byte/word loads and stores.  */
-
 static int
-copy_ldr_str_ldrb_strb (struct gdbarch *gdbarch, uint32_t insn,
+thumb2_copy_block_xfer (struct gdbarch *gdbarch, uint16_t insn1, uint16_t insn2,
                        struct regcache *regs,
-                       struct displaced_step_closure *dsc, int load, int byte,
-                       int usermode)
+                       struct displaced_step_closure *dsc)
 {
-  int immed = !bit (insn, 25);
-  unsigned int rt = bits (insn, 12, 15);
-  unsigned int rn = bits (insn, 16, 19);
-  unsigned int rm = bits (insn, 0, 3);  /* Only valid if !immed.  */
-  ULONGEST rt_val, rn_val, rm_val = 0;
-  CORE_ADDR from = dsc->insn_addr;
+  int rn = bits (insn1, 0, 3);
+  int load = bit (insn1, 4);
+  int writeback = bit (insn1, 5);
 
-  if (!insn_references_pc (insn, 0x000ff00ful))
-    return copy_unmodified (gdbarch, insn, "load/store", dsc);
+  /* Block transfers which don't mention PC can be run directly
+     out-of-line.  */
+  if (rn != ARM_PC_REGNUM && (insn2 & 0x8000) == 0)
+    return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2, "ldm/stm", dsc);
+
+  if (rn == ARM_PC_REGNUM)
+    {
+      warning (_("displaced: Unpredictable LDM or STM with "
+                "base register r15"));
+      return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                         "unpredictable ldm/stm", dsc);
+    }
 
   if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying %s%s insn %.8lx\n",
-                       load ? (byte ? "ldrb" : "ldr")
-                            : (byte ? "strb" : "str"), usermode ? "t" : "",
-                       (unsigned long) insn);
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying block transfer insn "
+                       "%.4x%.4x\n", insn1, insn2);
 
-  dsc->tmp[0] = displaced_read_reg (regs, from, 0);
-  dsc->tmp[2] = displaced_read_reg (regs, from, 2);
-  if (!immed)
-    dsc->tmp[3] = displaced_read_reg (regs, from, 3);
-  if (!load)
-    dsc->tmp[4] = displaced_read_reg (regs, from, 4);
+  /* Clear bit 13, since it should be always zero.  */
+  dsc->u.block.regmask = (insn2 & 0xdfff);
+  dsc->u.block.rn = rn;
 
-  rt_val = displaced_read_reg (regs, from, rt);
-  rn_val = displaced_read_reg (regs, from, rn);
-  if (!immed)
-    rm_val = displaced_read_reg (regs, from, rm);
+  dsc->u.block.load = load;
+  dsc->u.block.user = 0;
+  dsc->u.block.increment = bit (insn1, 7);
+  dsc->u.block.before = bit (insn1, 8);
+  dsc->u.block.writeback = writeback;
+  dsc->u.block.cond = INST_AL;
+  dsc->u.block.xfer_addr = displaced_read_reg (regs, dsc, rn);
 
-  displaced_write_reg (regs, dsc, 0, rt_val, CANNOT_WRITE_PC);
-  displaced_write_reg (regs, dsc, 2, rn_val, CANNOT_WRITE_PC);
-  if (!immed)
-    displaced_write_reg (regs, dsc, 3, rm_val, CANNOT_WRITE_PC);
+  if (load)
+    {
+      if (dsc->u.block.regmask == 0xffff)
+       {
+         /* This branch is impossible to happen.  */
+         gdb_assert (0);
+       }
+      else
+       {
+         unsigned int regmask = dsc->u.block.regmask;
+         unsigned int num_in_list = bitcount (regmask), new_regmask, bit = 1;
+         unsigned int to = 0, from = 0, i, new_rn;
 
-  dsc->rd = rt;
-  dsc->u.ldst.xfersize = byte ? 1 : 4;
-  dsc->u.ldst.rn = rn;
-  dsc->u.ldst.immed = immed;
-  dsc->u.ldst.writeback = bit (insn, 24) == 0 || bit (insn, 21) != 0;
+         for (i = 0; i < num_in_list; i++)
+           dsc->tmp[i] = displaced_read_reg (regs, dsc, i);
 
-  /* To write PC we can do:
+         if (writeback)
+           insn1 &= ~(1 << 5);
 
-     scratch+0:  str pc, temp  (*temp = scratch + 8 + offset)
-     scratch+4:  ldr r4, temp
-     scratch+8:  sub r4, r4, pc  (r4 = scratch + 8 + offset - scratch - 8 - 8)
-     scratch+12: add r4, r4, #8  (r4 = offset)
-     scratch+16: add r0, r0, r4
-     scratch+20: str r0, [r2, #imm] (or str r0, [r2, r3])
-     scratch+24: <temp>
+         new_regmask = (1 << num_in_list) - 1;
 
-     Otherwise we don't know what value to write for PC, since the offset is
-     architecture-dependent (sometimes PC+8, sometimes PC+12).  */
+         if (debug_displaced)
+           fprintf_unfiltered (gdb_stdlog, _("displaced: LDM r%d%s, "
+                               "{..., pc}: original reg list %.4x, modified "
+                               "list %.4x\n"), rn, writeback ? "!" : "",
+                               (int) dsc->u.block.regmask, new_regmask);
 
-  if (load || rt != 15)
-    {
-      dsc->u.ldst.restore_r4 = 0;
+         dsc->modinsn[0] = insn1;
+         dsc->modinsn[1] = (new_regmask & 0xffff);
+         dsc->numinsns = 2;
 
-      if (immed)
-       /* {ldr,str}[b]<cond> rt, [rn, #imm], etc.
-          ->
-          {ldr,str}[b]<cond> r0, [r2, #imm].  */
-       dsc->modinsn[0] = (insn & 0xfff00fff) | 0x20000;
-      else
-       /* {ldr,str}[b]<cond> rt, [rn, rm], etc.
-          ->
-          {ldr,str}[b]<cond> r0, [r2, r3].  */
-       dsc->modinsn[0] = (insn & 0xfff00ff0) | 0x20003;
+         dsc->cleanup = &cleanup_block_load_pc;
+       }
     }
   else
     {
-      /* We need to use r4 as scratch.  Make sure it's restored afterwards.  */
-      dsc->u.ldst.restore_r4 = 1;
+      dsc->modinsn[0] = insn1;
+      dsc->modinsn[1] = insn2;
+      dsc->numinsns = 2;
+      dsc->cleanup = &cleanup_block_store_pc;
+    }
+  return 0;
+}
+
+/* Cleanup/copy SVC (SWI) instructions.  These two functions are overridden
+   for Linux, where some SVC instructions must be treated specially.  */
+
+static void
+cleanup_svc (struct gdbarch *gdbarch, struct regcache *regs,
+            struct displaced_step_closure *dsc)
+{
+  CORE_ADDR resume_addr = dsc->insn_addr + dsc->insn_size;
+
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: cleanup for svc, resume at "
+                       "%.8lx\n", (unsigned long) resume_addr);
 
-      dsc->modinsn[0] = 0xe58ff014;  /* str pc, [pc, #20].  */
-      dsc->modinsn[1] = 0xe59f4010;  /* ldr r4, [pc, #16].  */
-      dsc->modinsn[2] = 0xe044400f;  /* sub r4, r4, pc.  */
-      dsc->modinsn[3] = 0xe2844008;  /* add r4, r4, #8.  */
-      dsc->modinsn[4] = 0xe0800004;  /* add r0, r0, r4.  */
+  displaced_write_reg (regs, dsc, ARM_PC_REGNUM, resume_addr, BRANCH_WRITE_PC);
+}
 
-      /* As above.  */
-      if (immed)
-       dsc->modinsn[5] = (insn & 0xfff00fff) | 0x20000;
-      else
-       dsc->modinsn[5] = (insn & 0xfff00ff0) | 0x20003;
 
-      dsc->modinsn[6] = 0x0;  /* breakpoint location.  */
-      dsc->modinsn[7] = 0x0;  /* scratch space.  */
+/* Common copy routine for svc instruciton.  */
 
-      dsc->numinsns = 6;
+static int
+install_svc (struct gdbarch *gdbarch, struct regcache *regs,
+            struct displaced_step_closure *dsc)
+{
+  /* Preparation: none.
+     Insn: unmodified svc.
+     Cleanup: pc <- insn_addr + insn_size.  */
+
+  /* Pretend we wrote to the PC, so cleanup doesn't set PC to the next
+     instruction.  */
+  dsc->wrote_to_pc = 1;
+
+  /* Allow OS-specific code to override SVC handling.  */
+  if (dsc->u.svc.copy_svc_os)
+    return dsc->u.svc.copy_svc_os (gdbarch, regs, dsc);
+  else
+    {
+      dsc->cleanup = &cleanup_svc;
+      return 0;
     }
+}
 
-  dsc->cleanup = load ? &cleanup_load : &cleanup_store;
+static int
+arm_copy_svc (struct gdbarch *gdbarch, uint32_t insn,
+             struct regcache *regs, struct displaced_step_closure *dsc)
+{
 
-  return 0;
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying svc insn %.8lx\n",
+                       (unsigned long) insn);
+
+  dsc->modinsn[0] = insn;
+
+  return install_svc (gdbarch, regs, dsc);
 }
 
-/* Cleanup LDM instructions with fully-populated register list.  This is an
-   unfortunate corner case: it's impossible to implement correctly by modifying
-   the instruction.  The issue is as follows: we have an instruction,
+static int
+thumb_copy_svc (struct gdbarch *gdbarch, uint16_t insn,
+               struct regcache *regs, struct displaced_step_closure *dsc)
+{
 
-   ldm rN, {r0-r15}
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying svc insn %.4x\n",
+                       insn);
 
-   which we must rewrite to avoid loading PC.  A possible solution would be to
-   do the load in two halves, something like (with suitable cleanup
-   afterwards):
+  dsc->modinsn[0] = insn;
 
-   mov r8, rN
-   ldm[id][ab] r8!, {r0-r7}
-   str r7, <temp>
-   ldm[id][ab] r8, {r7-r14}
-   <bkpt>
+  return install_svc (gdbarch, regs, dsc);
+}
 
-   but at present there's no suitable place for <temp>, since the scratch space
-   is overwritten before the cleanup routine is called.  For now, we simply
-   emulate the instruction.  */
+/* Copy undefined instructions.  */
 
-static void
-cleanup_block_load_all (struct gdbarch *gdbarch, struct regcache *regs,
-                       struct displaced_step_closure *dsc)
+static int
+arm_copy_undef (struct gdbarch *gdbarch, uint32_t insn,
+               struct displaced_step_closure *dsc)
 {
-  ULONGEST from = dsc->insn_addr;
-  int inc = dsc->u.block.increment;
-  int bump_before = dsc->u.block.before ? (inc ? 4 : -4) : 0;
-  int bump_after = dsc->u.block.before ? 0 : (inc ? 4 : -4);
-  uint32_t regmask = dsc->u.block.regmask;
-  int regno = inc ? 0 : 15;
-  CORE_ADDR xfer_addr = dsc->u.block.xfer_addr;
-  int exception_return = dsc->u.block.load && dsc->u.block.user
-                        && (regmask & 0x8000) != 0;
-  uint32_t status = displaced_read_reg (regs, from, ARM_PS_REGNUM);
-  int do_transfer = condition_true (dsc->u.block.cond, status);
-  enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying undefined insn %.8lx\n",
+                       (unsigned long) insn);
 
-  if (!do_transfer)
-    return;
+  dsc->modinsn[0] = insn;
 
-  /* If the instruction is ldm rN, {...pc}^, I don't think there's anything
-     sensible we can do here.  Complain loudly.  */
-  if (exception_return)
-    error (_("Cannot single-step exception return"));
+  return 0;
+}
 
-  /* We don't handle any stores here for now.  */
-  gdb_assert (dsc->u.block.load != 0);
+static int
+thumb_32bit_copy_undef (struct gdbarch *gdbarch, uint16_t insn1, uint16_t insn2,
+                       struct displaced_step_closure *dsc)
+{
 
   if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: emulating block transfer: "
-                       "%s %s %s\n", dsc->u.block.load ? "ldm" : "stm",
-                       dsc->u.block.increment ? "inc" : "dec",
-                       dsc->u.block.before ? "before" : "after");
-
-  while (regmask)
-    {
-      uint32_t memword;
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying undefined insn "
+                       "%.4x %.4x\n", (unsigned short) insn1,
+                       (unsigned short) insn2);
 
-      if (inc)
-       while (regno <= 15 && (regmask & (1 << regno)) == 0)
-         regno++;
-      else
-       while (regno >= 0 && (regmask & (1 << regno)) == 0)
-         regno--;
+  dsc->modinsn[0] = insn1;
+  dsc->modinsn[1] = insn2;
+  dsc->numinsns = 2;
 
-      xfer_addr += bump_before;
+  return 0;
+}
 
-      memword = read_memory_unsigned_integer (xfer_addr, 4, byte_order);
-      displaced_write_reg (regs, dsc, regno, memword, LOAD_WRITE_PC);
+/* Copy unpredictable instructions.  */
 
-      xfer_addr += bump_after;
+static int
+arm_copy_unpred (struct gdbarch *gdbarch, uint32_t insn,
+                struct displaced_step_closure *dsc)
+{
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying unpredictable insn "
+                       "%.8lx\n", (unsigned long) insn);
 
-      regmask &= ~(1 << regno);
-    }
+  dsc->modinsn[0] = insn;
 
-  if (dsc->u.block.writeback)
-    displaced_write_reg (regs, dsc, dsc->u.block.rn, xfer_addr,
-                        CANNOT_WRITE_PC);
+  return 0;
 }
 
-/* Clean up an STM which included the PC in the register list.  */
+/* The decode_* functions are instruction decoding helpers.  They mostly follow
+   the presentation in the ARM ARM.  */
 
-static void
-cleanup_block_store_pc (struct gdbarch *gdbarch, struct regcache *regs,
-                       struct displaced_step_closure *dsc)
+static int
+arm_decode_misc_memhint_neon (struct gdbarch *gdbarch, uint32_t insn,
+                             struct regcache *regs,
+                             struct displaced_step_closure *dsc)
 {
-  ULONGEST from = dsc->insn_addr;
-  uint32_t status = displaced_read_reg (regs, from, ARM_PS_REGNUM);
-  int store_executed = condition_true (dsc->u.block.cond, status);
-  CORE_ADDR pc_stored_at, transferred_regs = bitcount (dsc->u.block.regmask);
-  CORE_ADDR stm_insn_addr;
-  uint32_t pc_val;
-  long offset;
-  enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
-
-  /* If condition code fails, there's nothing else to do.  */
-  if (!store_executed)
-    return;
+  unsigned int op1 = bits (insn, 20, 26), op2 = bits (insn, 4, 7);
+  unsigned int rn = bits (insn, 16, 19);
 
-  if (dsc->u.block.increment)
+  if (op1 == 0x10 && (op2 & 0x2) == 0x0 && (rn & 0xe) == 0x0)
+    return arm_copy_unmodified (gdbarch, insn, "cps", dsc);
+  else if (op1 == 0x10 && op2 == 0x0 && (rn & 0xe) == 0x1)
+    return arm_copy_unmodified (gdbarch, insn, "setend", dsc);
+  else if ((op1 & 0x60) == 0x20)
+    return arm_copy_unmodified (gdbarch, insn, "neon dataproc", dsc);
+  else if ((op1 & 0x71) == 0x40)
+    return arm_copy_unmodified (gdbarch, insn, "neon elt/struct load/store",
+                               dsc);
+  else if ((op1 & 0x77) == 0x41)
+    return arm_copy_unmodified (gdbarch, insn, "unallocated mem hint", dsc);
+  else if ((op1 & 0x77) == 0x45)
+    return arm_copy_preload (gdbarch, insn, regs, dsc);  /* pli.  */
+  else if ((op1 & 0x77) == 0x51)
     {
-      pc_stored_at = dsc->u.block.xfer_addr + 4 * transferred_regs;
-
-      if (dsc->u.block.before)
-        pc_stored_at += 4;
+      if (rn != 0xf)
+       return arm_copy_preload (gdbarch, insn, regs, dsc);  /* pld/pldw.  */
+      else
+       return arm_copy_unpred (gdbarch, insn, dsc);
     }
+  else if ((op1 & 0x77) == 0x55)
+    return arm_copy_preload (gdbarch, insn, regs, dsc);  /* pld/pldw.  */
+  else if (op1 == 0x57)
+    switch (op2)
+      {
+      case 0x1: return arm_copy_unmodified (gdbarch, insn, "clrex", dsc);
+      case 0x4: return arm_copy_unmodified (gdbarch, insn, "dsb", dsc);
+      case 0x5: return arm_copy_unmodified (gdbarch, insn, "dmb", dsc);
+      case 0x6: return arm_copy_unmodified (gdbarch, insn, "isb", dsc);
+      default: return arm_copy_unpred (gdbarch, insn, dsc);
+      }
+  else if ((op1 & 0x63) == 0x43)
+    return arm_copy_unpred (gdbarch, insn, dsc);
+  else if ((op2 & 0x1) == 0x0)
+    switch (op1 & ~0x80)
+      {
+      case 0x61:
+       return arm_copy_unmodified (gdbarch, insn, "unallocated mem hint", dsc);
+      case 0x65:
+       return arm_copy_preload_reg (gdbarch, insn, regs, dsc);  /* pli reg.  */
+      case 0x71: case 0x75:
+        /* pld/pldw reg.  */
+       return arm_copy_preload_reg (gdbarch, insn, regs, dsc);
+      case 0x63: case 0x67: case 0x73: case 0x77:
+       return arm_copy_unpred (gdbarch, insn, dsc);
+      default:
+       return arm_copy_undef (gdbarch, insn, dsc);
+      }
   else
+    return arm_copy_undef (gdbarch, insn, dsc);  /* Probably unreachable.  */
+}
+
+static int
+arm_decode_unconditional (struct gdbarch *gdbarch, uint32_t insn,
+                         struct regcache *regs,
+                         struct displaced_step_closure *dsc)
+{
+  if (bit (insn, 27) == 0)
+    return arm_decode_misc_memhint_neon (gdbarch, insn, regs, dsc);
+  /* Switch on bits: 0bxxxxx321xxx0xxxxxxxxxxxxxxxxxxxx.  */
+  else switch (((insn & 0x7000000) >> 23) | ((insn & 0x100000) >> 20))
     {
-      pc_stored_at = dsc->u.block.xfer_addr;
+    case 0x0: case 0x2:
+      return arm_copy_unmodified (gdbarch, insn, "srs", dsc);
 
-      if (dsc->u.block.before)
-        pc_stored_at -= 4;
-    }
+    case 0x1: case 0x3:
+      return arm_copy_unmodified (gdbarch, insn, "rfe", dsc);
 
-  pc_val = read_memory_unsigned_integer (pc_stored_at, 4, byte_order);
-  stm_insn_addr = dsc->scratch_base;
-  offset = pc_val - stm_insn_addr;
+    case 0x4: case 0x5: case 0x6: case 0x7:
+      return arm_copy_b_bl_blx (gdbarch, insn, regs, dsc);
 
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: detected PC offset %.8lx for "
-                       "STM instruction\n", offset);
+    case 0x8:
+      switch ((insn & 0xe00000) >> 21)
+       {
+       case 0x1: case 0x3: case 0x4: case 0x5: case 0x6: case 0x7:
+         /* stc/stc2.  */
+         return arm_copy_copro_load_store (gdbarch, insn, regs, dsc);
 
-  /* Rewrite the stored PC to the proper value for the non-displaced original
-     instruction.  */
-  write_memory_unsigned_integer (pc_stored_at, 4, byte_order,
-                                dsc->insn_addr + offset);
-}
+       case 0x2:
+         return arm_copy_unmodified (gdbarch, insn, "mcrr/mcrr2", dsc);
 
-/* Clean up an LDM which includes the PC in the register list.  We clumped all
-   the registers in the transferred list into a contiguous range r0...rX (to
-   avoid loading PC directly and losing control of the debugged program), so we
-   must undo that here.  */
+       default:
+         return arm_copy_undef (gdbarch, insn, dsc);
+       }
 
-static void
-cleanup_block_load_pc (struct gdbarch *gdbarch,
-                      struct regcache *regs,
-                      struct displaced_step_closure *dsc)
-{
-  ULONGEST from = dsc->insn_addr;
-  uint32_t status = displaced_read_reg (regs, from, ARM_PS_REGNUM);
-  int load_executed = condition_true (dsc->u.block.cond, status), i;
-  unsigned int mask = dsc->u.block.regmask, write_reg = 15;
-  unsigned int regs_loaded = bitcount (mask);
-  unsigned int num_to_shuffle = regs_loaded, clobbered;
+    case 0x9:
+      {
+        int rn_f = (bits (insn, 16, 19) == 0xf);
+       switch ((insn & 0xe00000) >> 21)
+         {
+         case 0x1: case 0x3:
+           /* ldc/ldc2 imm (undefined for rn == pc).  */
+           return rn_f ? arm_copy_undef (gdbarch, insn, dsc)
+                       : arm_copy_copro_load_store (gdbarch, insn, regs, dsc);
 
-  /* The method employed here will fail if the register list is fully populated
-     (we need to avoid loading PC directly).  */
-  gdb_assert (num_to_shuffle < 16);
+         case 0x2:
+           return arm_copy_unmodified (gdbarch, insn, "mrrc/mrrc2", dsc);
 
-  if (!load_executed)
-    return;
+         case 0x4: case 0x5: case 0x6: case 0x7:
+           /* ldc/ldc2 lit (undefined for rn != pc).  */
+           return rn_f ? arm_copy_copro_load_store (gdbarch, insn, regs, dsc)
+                       : arm_copy_undef (gdbarch, insn, dsc);
 
-  clobbered = (1 << num_to_shuffle) - 1;
+         default:
+           return arm_copy_undef (gdbarch, insn, dsc);
+         }
+      }
 
-  while (num_to_shuffle > 0)
-    {
-      if ((mask & (1 << write_reg)) != 0)
-       {
-         unsigned int read_reg = num_to_shuffle - 1;
+    case 0xa:
+      return arm_copy_unmodified (gdbarch, insn, "stc/stc2", dsc);
 
-         if (read_reg != write_reg)
-           {
-             ULONGEST rval = displaced_read_reg (regs, from, read_reg);
-             displaced_write_reg (regs, dsc, write_reg, rval, LOAD_WRITE_PC);
-             if (debug_displaced)
-               fprintf_unfiltered (gdb_stdlog, _("displaced: LDM: move "
-                                   "loaded register r%d to r%d\n"), read_reg,
-                                   write_reg);
-           }
-         else if (debug_displaced)
-           fprintf_unfiltered (gdb_stdlog, _("displaced: LDM: register "
-                               "r%d already in the right place\n"),
-                               write_reg);
+    case 0xb:
+      if (bits (insn, 16, 19) == 0xf)
+        /* ldc/ldc2 lit.  */
+       return arm_copy_copro_load_store (gdbarch, insn, regs, dsc);
+      else
+       return arm_copy_undef (gdbarch, insn, dsc);
 
-         clobbered &= ~(1 << write_reg);
+    case 0xc:
+      if (bit (insn, 4))
+       return arm_copy_unmodified (gdbarch, insn, "mcr/mcr2", dsc);
+      else
+       return arm_copy_unmodified (gdbarch, insn, "cdp/cdp2", dsc);
 
-         num_to_shuffle--;
-       }
+    case 0xd:
+      if (bit (insn, 4))
+       return arm_copy_unmodified (gdbarch, insn, "mrc/mrc2", dsc);
+      else
+       return arm_copy_unmodified (gdbarch, insn, "cdp/cdp2", dsc);
 
-      write_reg--;
+    default:
+      return arm_copy_undef (gdbarch, insn, dsc);
     }
+}
 
-  /* Restore any registers we scribbled over.  */
-  for (write_reg = 0; clobbered != 0; write_reg++)
-    {
-      if ((clobbered & (1 << write_reg)) != 0)
-       {
-         displaced_write_reg (regs, dsc, write_reg, dsc->tmp[write_reg],
-                              CANNOT_WRITE_PC);
-         if (debug_displaced)
-           fprintf_unfiltered (gdb_stdlog, _("displaced: LDM: restored "
-                               "clobbered register r%d\n"), write_reg);
-         clobbered &= ~(1 << write_reg);
-       }
-    }
+/* Decode miscellaneous instructions in dp/misc encoding space.  */
 
-  /* Perform register writeback manually.  */
-  if (dsc->u.block.writeback)
+static int
+arm_decode_miscellaneous (struct gdbarch *gdbarch, uint32_t insn,
+                         struct regcache *regs,
+                         struct displaced_step_closure *dsc)
+{
+  unsigned int op2 = bits (insn, 4, 6);
+  unsigned int op = bits (insn, 21, 22);
+  unsigned int op1 = bits (insn, 16, 19);
+
+  switch (op2)
     {
-      ULONGEST new_rn_val = dsc->u.block.xfer_addr;
+    case 0x0:
+      return arm_copy_unmodified (gdbarch, insn, "mrs/msr", dsc);
 
-      if (dsc->u.block.increment)
-       new_rn_val += regs_loaded * 4;
+    case 0x1:
+      if (op == 0x1)  /* bx.  */
+       return arm_copy_bx_blx_reg (gdbarch, insn, regs, dsc);
+      else if (op == 0x3)
+       return arm_copy_unmodified (gdbarch, insn, "clz", dsc);
       else
-       new_rn_val -= regs_loaded * 4;
+       return arm_copy_undef (gdbarch, insn, dsc);
 
-      displaced_write_reg (regs, dsc, dsc->u.block.rn, new_rn_val,
-                          CANNOT_WRITE_PC);
+    case 0x2:
+      if (op == 0x1)
+        /* Not really supported.  */
+       return arm_copy_unmodified (gdbarch, insn, "bxj", dsc);
+      else
+       return arm_copy_undef (gdbarch, insn, dsc);
+
+    case 0x3:
+      if (op == 0x1)
+       return arm_copy_bx_blx_reg (gdbarch, insn,
+                               regs, dsc);  /* blx register.  */
+      else
+       return arm_copy_undef (gdbarch, insn, dsc);
+
+    case 0x5:
+      return arm_copy_unmodified (gdbarch, insn, "saturating add/sub", dsc);
+
+    case 0x7:
+      if (op == 0x1)
+       return arm_copy_unmodified (gdbarch, insn, "bkpt", dsc);
+      else if (op == 0x3)
+        /* Not really supported.  */
+       return arm_copy_unmodified (gdbarch, insn, "smc", dsc);
+
+    default:
+      return arm_copy_undef (gdbarch, insn, dsc);
     }
 }
 
-/* Handle ldm/stm, apart from some tricky cases which are unlikely to occur
-   in user-level code (in particular exception return, ldm rn, {...pc}^).  */
-
 static int
-copy_block_xfer (struct gdbarch *gdbarch, uint32_t insn, struct regcache *regs,
-                struct displaced_step_closure *dsc)
+arm_decode_dp_misc (struct gdbarch *gdbarch, uint32_t insn,
+                   struct regcache *regs,
+                   struct displaced_step_closure *dsc)
 {
-  int load = bit (insn, 20);
-  int user = bit (insn, 22);
-  int increment = bit (insn, 23);
-  int before = bit (insn, 24);
-  int writeback = bit (insn, 21);
-  int rn = bits (insn, 16, 19);
-  CORE_ADDR from = dsc->insn_addr;
+  if (bit (insn, 25))
+    switch (bits (insn, 20, 24))
+      {
+      case 0x10:
+       return arm_copy_unmodified (gdbarch, insn, "movw", dsc);
+
+      case 0x14:
+       return arm_copy_unmodified (gdbarch, insn, "movt", dsc);
 
-  /* Block transfers which don't mention PC can be run directly out-of-line.  */
-  if (rn != 15 && (insn & 0x8000) == 0)
-    return copy_unmodified (gdbarch, insn, "ldm/stm", dsc);
+      case 0x12: case 0x16:
+       return arm_copy_unmodified (gdbarch, insn, "msr imm", dsc);
 
-  if (rn == 15)
+      default:
+       return arm_copy_alu_imm (gdbarch, insn, regs, dsc);
+      }
+  else
     {
-      warning (_("displaced: Unpredictable LDM or STM with base register r15"));
-      return copy_unmodified (gdbarch, insn, "unpredictable ldm/stm", dsc);
+      uint32_t op1 = bits (insn, 20, 24), op2 = bits (insn, 4, 7);
+
+      if ((op1 & 0x19) != 0x10 && (op2 & 0x1) == 0x0)
+       return arm_copy_alu_reg (gdbarch, insn, regs, dsc);
+      else if ((op1 & 0x19) != 0x10 && (op2 & 0x9) == 0x1)
+       return arm_copy_alu_shifted_reg (gdbarch, insn, regs, dsc);
+      else if ((op1 & 0x19) == 0x10 && (op2 & 0x8) == 0x0)
+       return arm_decode_miscellaneous (gdbarch, insn, regs, dsc);
+      else if ((op1 & 0x19) == 0x10 && (op2 & 0x9) == 0x8)
+       return arm_copy_unmodified (gdbarch, insn, "halfword mul/mla", dsc);
+      else if ((op1 & 0x10) == 0x00 && op2 == 0x9)
+       return arm_copy_unmodified (gdbarch, insn, "mul/mla", dsc);
+      else if ((op1 & 0x10) == 0x10 && op2 == 0x9)
+       return arm_copy_unmodified (gdbarch, insn, "synch", dsc);
+      else if (op2 == 0xb || (op2 & 0xd) == 0xd)
+       /* 2nd arg means "unpriveleged".  */
+       return arm_copy_extra_ld_st (gdbarch, insn, (op1 & 0x12) == 0x02, regs,
+                                    dsc);
     }
 
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying block transfer insn "
-                       "%.8lx\n", (unsigned long) insn);
+  /* Should be unreachable.  */
+  return 1;
+}
 
-  dsc->u.block.xfer_addr = displaced_read_reg (regs, from, rn);
-  dsc->u.block.rn = rn;
+static int
+arm_decode_ld_st_word_ubyte (struct gdbarch *gdbarch, uint32_t insn,
+                            struct regcache *regs,
+                            struct displaced_step_closure *dsc)
+{
+  int a = bit (insn, 25), b = bit (insn, 4);
+  uint32_t op1 = bits (insn, 20, 24);
+  int rn_f = bits (insn, 16, 19) == 0xf;
 
-  dsc->u.block.load = load;
-  dsc->u.block.user = user;
-  dsc->u.block.increment = increment;
-  dsc->u.block.before = before;
-  dsc->u.block.writeback = writeback;
-  dsc->u.block.cond = bits (insn, 28, 31);
+  if ((!a && (op1 & 0x05) == 0x00 && (op1 & 0x17) != 0x02)
+      || (a && (op1 & 0x05) == 0x00 && (op1 & 0x17) != 0x02 && !b))
+    return arm_copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 0, 4, 0);
+  else if ((!a && (op1 & 0x17) == 0x02)
+           || (a && (op1 & 0x17) == 0x02 && !b))
+    return arm_copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 0, 4, 1);
+  else if ((!a && (op1 & 0x05) == 0x01 && (op1 & 0x17) != 0x03)
+           || (a && (op1 & 0x05) == 0x01 && (op1 & 0x17) != 0x03 && !b))
+    return arm_copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 1, 4, 0);
+  else if ((!a && (op1 & 0x17) == 0x03)
+          || (a && (op1 & 0x17) == 0x03 && !b))
+    return arm_copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 1, 4, 1);
+  else if ((!a && (op1 & 0x05) == 0x04 && (op1 & 0x17) != 0x06)
+           || (a && (op1 & 0x05) == 0x04 && (op1 & 0x17) != 0x06 && !b))
+    return arm_copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 0, 1, 0);
+  else if ((!a && (op1 & 0x17) == 0x06)
+          || (a && (op1 & 0x17) == 0x06 && !b))
+    return arm_copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 0, 1, 1);
+  else if ((!a && (op1 & 0x05) == 0x05 && (op1 & 0x17) != 0x07)
+          || (a && (op1 & 0x05) == 0x05 && (op1 & 0x17) != 0x07 && !b))
+    return arm_copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 1, 1, 0);
+  else if ((!a && (op1 & 0x17) == 0x07)
+          || (a && (op1 & 0x17) == 0x07 && !b))
+    return arm_copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 1, 1, 1);
 
-  dsc->u.block.regmask = insn & 0xffff;
+  /* Should be unreachable.  */
+  return 1;
+}
 
-  if (load)
+static int
+arm_decode_media (struct gdbarch *gdbarch, uint32_t insn,
+                 struct displaced_step_closure *dsc)
+{
+  switch (bits (insn, 20, 24))
     {
-      if ((insn & 0xffff) == 0xffff)
-       {
-         /* LDM with a fully-populated register list.  This case is
-            particularly tricky.  Implement for now by fully emulating the
-            instruction (which might not behave perfectly in all cases, but
-            these instructions should be rare enough for that not to matter
-            too much).  */
-         dsc->modinsn[0] = ARM_NOP;
-
-         dsc->cleanup = &cleanup_block_load_all;
-       }
-      else
-       {
-         /* LDM of a list of registers which includes PC.  Implement by
-            rewriting the list of registers to be transferred into a
-            contiguous chunk r0...rX before doing the transfer, then shuffling
-            registers into the correct places in the cleanup routine.  */
-         unsigned int regmask = insn & 0xffff;
-         unsigned int num_in_list = bitcount (regmask), new_regmask, bit = 1;
-         unsigned int to = 0, from = 0, i, new_rn;
+    case 0x00: case 0x01: case 0x02: case 0x03:
+      return arm_copy_unmodified (gdbarch, insn, "parallel add/sub signed", dsc);
 
-         for (i = 0; i < num_in_list; i++)
-           dsc->tmp[i] = displaced_read_reg (regs, from, i);
+    case 0x04: case 0x05: case 0x06: case 0x07:
+      return arm_copy_unmodified (gdbarch, insn, "parallel add/sub unsigned", dsc);
 
-         /* Writeback makes things complicated.  We need to avoid clobbering
-            the base register with one of the registers in our modified
-            register list, but just using a different register can't work in
-            all cases, e.g.:
+    case 0x08: case 0x09: case 0x0a: case 0x0b:
+    case 0x0c: case 0x0d: case 0x0e: case 0x0f:
+      return arm_copy_unmodified (gdbarch, insn,
+                             "decode/pack/unpack/saturate/reverse", dsc);
 
-              ldm r14!, {r0-r13,pc}
+    case 0x18:
+      if (bits (insn, 5, 7) == 0)  /* op2.  */
+        {
+         if (bits (insn, 12, 15) == 0xf)
+           return arm_copy_unmodified (gdbarch, insn, "usad8", dsc);
+         else
+           return arm_copy_unmodified (gdbarch, insn, "usada8", dsc);
+       }
+      else
+        return arm_copy_undef (gdbarch, insn, dsc);
 
-            which would need to be rewritten as:
+    case 0x1a: case 0x1b:
+      if (bits (insn, 5, 6) == 0x2)  /* op2[1:0].  */
+       return arm_copy_unmodified (gdbarch, insn, "sbfx", dsc);
+      else
+       return arm_copy_undef (gdbarch, insn, dsc);
 
-              ldm rN!, {r0-r14}
+    case 0x1c: case 0x1d:
+      if (bits (insn, 5, 6) == 0x0)  /* op2[1:0].  */
+        {
+         if (bits (insn, 0, 3) == 0xf)
+           return arm_copy_unmodified (gdbarch, insn, "bfc", dsc);
+         else
+           return arm_copy_unmodified (gdbarch, insn, "bfi", dsc);
+       }
+      else
+       return arm_copy_undef (gdbarch, insn, dsc);
 
-            but that can't work, because there's no free register for N.
+    case 0x1e: case 0x1f:
+      if (bits (insn, 5, 6) == 0x2)  /* op2[1:0].  */
+       return arm_copy_unmodified (gdbarch, insn, "ubfx", dsc);
+      else
+       return arm_copy_undef (gdbarch, insn, dsc);
+    }
 
-            Solve this by turning off the writeback bit, and emulating
-            writeback manually in the cleanup routine.  */
+  /* Should be unreachable.  */
+  return 1;
+}
 
-         if (writeback)
-           insn &= ~(1 << 21);
+static int
+arm_decode_b_bl_ldmstm (struct gdbarch *gdbarch, int32_t insn,
+                       struct regcache *regs,
+                       struct displaced_step_closure *dsc)
+{
+  if (bit (insn, 25))
+    return arm_copy_b_bl_blx (gdbarch, insn, regs, dsc);
+  else
+    return arm_copy_block_xfer (gdbarch, insn, regs, dsc);
+}
 
-         new_regmask = (1 << num_in_list) - 1;
+static int
+arm_decode_ext_reg_ld_st (struct gdbarch *gdbarch, uint32_t insn,
+                         struct regcache *regs,
+                         struct displaced_step_closure *dsc)
+{
+  unsigned int opcode = bits (insn, 20, 24);
 
-         if (debug_displaced)
-           fprintf_unfiltered (gdb_stdlog, _("displaced: LDM r%d%s, "
-                               "{..., pc}: original reg list %.4x, modified "
-                               "list %.4x\n"), rn, writeback ? "!" : "",
-                               (int) insn & 0xffff, new_regmask);
+  switch (opcode)
+    {
+    case 0x04: case 0x05:  /* VFP/Neon mrrc/mcrr.  */
+      return arm_copy_unmodified (gdbarch, insn, "vfp/neon mrrc/mcrr", dsc);
 
-         dsc->modinsn[0] = (insn & ~0xffff) | (new_regmask & 0xffff);
+    case 0x08: case 0x0a: case 0x0c: case 0x0e:
+    case 0x12: case 0x16:
+      return arm_copy_unmodified (gdbarch, insn, "vfp/neon vstm/vpush", dsc);
 
-         dsc->cleanup = &cleanup_block_load_pc;
-       }
-    }
-  else
-    {
-      /* STM of a list of registers which includes PC.  Run the instruction
-        as-is, but out of line: this will store the wrong value for the PC,
-        so we must manually fix up the memory in the cleanup routine.
-        Doing things this way has the advantage that we can auto-detect
-        the offset of the PC write (which is architecture-dependent) in
-        the cleanup routine.  */
-      dsc->modinsn[0] = insn;
+    case 0x09: case 0x0b: case 0x0d: case 0x0f:
+    case 0x13: case 0x17:
+      return arm_copy_unmodified (gdbarch, insn, "vfp/neon vldm/vpop", dsc);
 
-      dsc->cleanup = &cleanup_block_store_pc;
+    case 0x10: case 0x14: case 0x18: case 0x1c:  /* vstr.  */
+    case 0x11: case 0x15: case 0x19: case 0x1d:  /* vldr.  */
+      /* Note: no writeback for these instructions.  Bit 25 will always be
+        zero though (via caller), so the following works OK.  */
+      return arm_copy_copro_load_store (gdbarch, insn, regs, dsc);
     }
 
-  return 0;
+  /* Should be unreachable.  */
+  return 1;
 }
 
-/* Cleanup/copy SVC (SWI) instructions.  These two functions are overridden
-   for Linux, where some SVC instructions must be treated specially.  */
-
-static void
-cleanup_svc (struct gdbarch *gdbarch, struct regcache *regs,
-            struct displaced_step_closure *dsc)
+/* Decode shifted register instructions.  */
+
+static int
+thumb2_decode_dp_shift_reg (struct gdbarch *gdbarch, uint16_t insn1,
+                           uint16_t insn2,  struct regcache *regs,
+                           struct displaced_step_closure *dsc)
 {
-  CORE_ADDR from = dsc->insn_addr;
-  CORE_ADDR resume_addr = from + 4;
+  /* PC is only allowed to be used in instruction MOV.  */
 
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: cleanup for svc, resume at "
-                       "%.8lx\n", (unsigned long) resume_addr);
+  unsigned int op = bits (insn1, 5, 8);
+  unsigned int rn = bits (insn1, 0, 3);
 
-  displaced_write_reg (regs, dsc, ARM_PC_REGNUM, resume_addr, BRANCH_WRITE_PC);
+  if (op == 0x2 && rn == 0xf) /* MOV */
+    return thumb2_copy_alu_imm (gdbarch, insn1, insn2, regs, dsc);
+  else
+    return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                       "dp (shift reg)", dsc);
 }
 
+
+/* Decode extension register load/store.  Exactly the same as
+   arm_decode_ext_reg_ld_st.  */
+
 static int
-copy_svc (struct gdbarch *gdbarch, uint32_t insn, CORE_ADDR to,
-         struct regcache *regs, struct displaced_step_closure *dsc)
+thumb2_decode_ext_reg_ld_st (struct gdbarch *gdbarch, uint16_t insn1,
+                            uint16_t insn2,  struct regcache *regs,
+                            struct displaced_step_closure *dsc)
 {
-  CORE_ADDR from = dsc->insn_addr;
+  unsigned int opcode = bits (insn1, 4, 8);
 
-  /* Allow OS-specific code to override SVC handling.  */
-  if (dsc->u.svc.copy_svc_os)
-    return dsc->u.svc.copy_svc_os (gdbarch, insn, to, regs, dsc);
-
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying svc insn %.8lx\n",
-                       (unsigned long) insn);
+  switch (opcode)
+    {
+    case 0x04: case 0x05:
+      return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                         "vfp/neon vmov", dsc);
 
-  /* Preparation: none.
-     Insn: unmodified svc.
-     Cleanup: pc <- insn_addr + 4.  */
+    case 0x08: case 0x0c: /* 01x00 */
+    case 0x0a: case 0x0e: /* 01x10 */
+    case 0x12: case 0x16: /* 10x10 */
+      return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                         "vfp/neon vstm/vpush", dsc);
 
-  dsc->modinsn[0] = insn;
+    case 0x09: case 0x0d: /* 01x01 */
+    case 0x0b: case 0x0f: /* 01x11 */
+    case 0x13: case 0x17: /* 10x11 */
+      return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                         "vfp/neon vldm/vpop", dsc);
 
-  dsc->cleanup = &cleanup_svc;
-  /* Pretend we wrote to the PC, so cleanup doesn't set PC to the next
-     instruction.  */
-  dsc->wrote_to_pc = 1;
+    case 0x10: case 0x14: case 0x18: case 0x1c:  /* vstr.  */
+      return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                         "vstr", dsc);
+    case 0x11: case 0x15: case 0x19: case 0x1d:  /* vldr.  */
+      return thumb2_copy_copro_load_store (gdbarch, insn1, insn2, regs, dsc);
+    }
 
-  return 0;
+  /* Should be unreachable.  */
+  return 1;
 }
 
-/* Copy undefined instructions.  */
-
 static int
-copy_undef (struct gdbarch *gdbarch, uint32_t insn,
-           struct displaced_step_closure *dsc)
+arm_decode_svc_copro (struct gdbarch *gdbarch, uint32_t insn, CORE_ADDR to,
+                     struct regcache *regs, struct displaced_step_closure *dsc)
 {
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying undefined insn %.8lx\n",
-                       (unsigned long) insn);
+  unsigned int op1 = bits (insn, 20, 25);
+  int op = bit (insn, 4);
+  unsigned int coproc = bits (insn, 8, 11);
+  unsigned int rn = bits (insn, 16, 19);
 
-  dsc->modinsn[0] = insn;
+  if ((op1 & 0x20) == 0x00 && (op1 & 0x3a) != 0x00 && (coproc & 0xe) == 0xa)
+    return arm_decode_ext_reg_ld_st (gdbarch, insn, regs, dsc);
+  else if ((op1 & 0x21) == 0x00 && (op1 & 0x3a) != 0x00
+          && (coproc & 0xe) != 0xa)
+    /* stc/stc2.  */
+    return arm_copy_copro_load_store (gdbarch, insn, regs, dsc);
+  else if ((op1 & 0x21) == 0x01 && (op1 & 0x3a) != 0x00
+          && (coproc & 0xe) != 0xa)
+    /* ldc/ldc2 imm/lit.  */
+    return arm_copy_copro_load_store (gdbarch, insn, regs, dsc);
+  else if ((op1 & 0x3e) == 0x00)
+    return arm_copy_undef (gdbarch, insn, dsc);
+  else if ((op1 & 0x3e) == 0x04 && (coproc & 0xe) == 0xa)
+    return arm_copy_unmodified (gdbarch, insn, "neon 64bit xfer", dsc);
+  else if (op1 == 0x04 && (coproc & 0xe) != 0xa)
+    return arm_copy_unmodified (gdbarch, insn, "mcrr/mcrr2", dsc);
+  else if (op1 == 0x05 && (coproc & 0xe) != 0xa)
+    return arm_copy_unmodified (gdbarch, insn, "mrrc/mrrc2", dsc);
+  else if ((op1 & 0x30) == 0x20 && !op)
+    {
+      if ((coproc & 0xe) == 0xa)
+       return arm_copy_unmodified (gdbarch, insn, "vfp dataproc", dsc);
+      else
+       return arm_copy_unmodified (gdbarch, insn, "cdp/cdp2", dsc);
+    }
+  else if ((op1 & 0x30) == 0x20 && op)
+    return arm_copy_unmodified (gdbarch, insn, "neon 8/16/32 bit xfer", dsc);
+  else if ((op1 & 0x31) == 0x20 && op && (coproc & 0xe) != 0xa)
+    return arm_copy_unmodified (gdbarch, insn, "mcr/mcr2", dsc);
+  else if ((op1 & 0x31) == 0x21 && op && (coproc & 0xe) != 0xa)
+    return arm_copy_unmodified (gdbarch, insn, "mrc/mrc2", dsc);
+  else if ((op1 & 0x30) == 0x30)
+    return arm_copy_svc (gdbarch, insn, regs, dsc);
+  else
+    return arm_copy_undef (gdbarch, insn, dsc);  /* Possibly unreachable.  */
+}
+
+static int
+thumb2_decode_svc_copro (struct gdbarch *gdbarch, uint16_t insn1,
+                        uint16_t insn2, struct regcache *regs,
+                        struct displaced_step_closure *dsc)
+{
+  unsigned int coproc = bits (insn2, 8, 11);
+  unsigned int op1 = bits (insn1, 4, 9);
+  unsigned int bit_5_8 = bits (insn1, 5, 8);
+  unsigned int bit_9 = bit (insn1, 9);
+  unsigned int bit_4 = bit (insn1, 4);
+  unsigned int rn = bits (insn1, 0, 3);
+
+  if (bit_9 == 0)
+    {
+      if (bit_5_8 == 2)
+       return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                           "neon 64bit xfer/mrrc/mrrc2/mcrr/mcrr2",
+                                           dsc);
+      else if (bit_5_8 == 0) /* UNDEFINED.  */
+       return thumb_32bit_copy_undef (gdbarch, insn1, insn2, dsc);
+      else
+       {
+          /*coproc is 101x.  SIMD/VFP, ext registers load/store.  */
+         if ((coproc & 0xe) == 0xa)
+           return thumb2_decode_ext_reg_ld_st (gdbarch, insn1, insn2, regs,
+                                               dsc);
+         else /* coproc is not 101x.  */
+           {
+             if (bit_4 == 0) /* STC/STC2.  */
+               return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                                   "stc/stc2", dsc);
+             else /* LDC/LDC2 {literal, immeidate}.  */
+               return thumb2_copy_copro_load_store (gdbarch, insn1, insn2,
+                                                    regs, dsc);
+           }
+       }
+    }
+  else
+    return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2, "coproc", dsc);
 
   return 0;
 }
 
-/* Copy unpredictable instructions.  */
+static void
+install_pc_relative (struct gdbarch *gdbarch, struct regcache *regs,
+                    struct displaced_step_closure *dsc, int rd)
+{
+  /* ADR Rd, #imm
+
+     Rewrite as:
+
+     Preparation: Rd <- PC
+     Insn: ADD Rd, #imm
+     Cleanup: Null.
+  */
+
+  /* Rd <- PC */
+  int val = displaced_read_reg (regs, dsc, ARM_PC_REGNUM);
+  displaced_write_reg (regs, dsc, rd, val, CANNOT_WRITE_PC);
+}
 
 static int
-copy_unpred (struct gdbarch *gdbarch, uint32_t insn,
-            struct displaced_step_closure *dsc)
+thumb_copy_pc_relative_16bit (struct gdbarch *gdbarch, struct regcache *regs,
+                             struct displaced_step_closure *dsc,
+                             int rd, unsigned int imm)
 {
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: copying unpredictable insn "
-                       "%.8lx\n", (unsigned long) insn);
 
-  dsc->modinsn[0] = insn;
+  /* Encoding T2: ADDS Rd, #imm */
+  dsc->modinsn[0] = (0x3000 | (rd << 8) | imm);
+
+  install_pc_relative (gdbarch, regs, dsc, rd);
 
   return 0;
 }
 
-/* The decode_* functions are instruction decoding helpers.  They mostly follow
-   the presentation in the ARM ARM.  */
-
 static int
-decode_misc_memhint_neon (struct gdbarch *gdbarch, uint32_t insn,
-                         struct regcache *regs,
-                         struct displaced_step_closure *dsc)
+thumb_decode_pc_relative_16bit (struct gdbarch *gdbarch, uint16_t insn,
+                               struct regcache *regs,
+                               struct displaced_step_closure *dsc)
 {
-  unsigned int op1 = bits (insn, 20, 26), op2 = bits (insn, 4, 7);
-  unsigned int rn = bits (insn, 16, 19);
+  unsigned int rd = bits (insn, 8, 10);
+  unsigned int imm8 = bits (insn, 0, 7);
 
-  if (op1 == 0x10 && (op2 & 0x2) == 0x0 && (rn & 0xe) == 0x0)
-    return copy_unmodified (gdbarch, insn, "cps", dsc);
-  else if (op1 == 0x10 && op2 == 0x0 && (rn & 0xe) == 0x1)
-    return copy_unmodified (gdbarch, insn, "setend", dsc);
-  else if ((op1 & 0x60) == 0x20)
-    return copy_unmodified (gdbarch, insn, "neon dataproc", dsc);
-  else if ((op1 & 0x71) == 0x40)
-    return copy_unmodified (gdbarch, insn, "neon elt/struct load/store", dsc);
-  else if ((op1 & 0x77) == 0x41)
-    return copy_unmodified (gdbarch, insn, "unallocated mem hint", dsc);
-  else if ((op1 & 0x77) == 0x45)
-    return copy_preload (gdbarch, insn, regs, dsc);  /* pli.  */
-  else if ((op1 & 0x77) == 0x51)
-    {
-      if (rn != 0xf)
-       return copy_preload (gdbarch, insn, regs, dsc);  /* pld/pldw.  */
-      else
-       return copy_unpred (gdbarch, insn, dsc);
-    }
-  else if ((op1 & 0x77) == 0x55)
-    return copy_preload (gdbarch, insn, regs, dsc);  /* pld/pldw.  */
-  else if (op1 == 0x57)
-    switch (op2)
-      {
-      case 0x1: return copy_unmodified (gdbarch, insn, "clrex", dsc);
-      case 0x4: return copy_unmodified (gdbarch, insn, "dsb", dsc);
-      case 0x5: return copy_unmodified (gdbarch, insn, "dmb", dsc);
-      case 0x6: return copy_unmodified (gdbarch, insn, "isb", dsc);
-      default: return copy_unpred (gdbarch, insn, dsc);
-      }
-  else if ((op1 & 0x63) == 0x43)
-    return copy_unpred (gdbarch, insn, dsc);
-  else if ((op2 & 0x1) == 0x0)
-    switch (op1 & ~0x80)
-      {
-      case 0x61:
-       return copy_unmodified (gdbarch, insn, "unallocated mem hint", dsc);
-      case 0x65:
-       return copy_preload_reg (gdbarch, insn, regs, dsc);  /* pli reg.  */
-      case 0x71: case 0x75:
-        /* pld/pldw reg.  */
-       return copy_preload_reg (gdbarch, insn, regs, dsc);
-      case 0x63: case 0x67: case 0x73: case 0x77:
-       return copy_unpred (gdbarch, insn, dsc);
-      default:
-       return copy_undef (gdbarch, insn, dsc);
-      }
-  else
-    return copy_undef (gdbarch, insn, dsc);  /* Probably unreachable.  */
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying thumb adr r%d, #%d insn %.4x\n",
+                       rd, imm8, insn);
+
+  return thumb_copy_pc_relative_16bit (gdbarch, regs, dsc, rd, imm8);
 }
 
 static int
-decode_unconditional (struct gdbarch *gdbarch, uint32_t insn,
-                     struct regcache *regs, struct displaced_step_closure *dsc)
-{
-  if (bit (insn, 27) == 0)
-    return decode_misc_memhint_neon (gdbarch, insn, regs, dsc);
-  /* Switch on bits: 0bxxxxx321xxx0xxxxxxxxxxxxxxxxxxxx.  */
-  else switch (((insn & 0x7000000) >> 23) | ((insn & 0x100000) >> 20))
+thumb_copy_pc_relative_32bit (struct gdbarch *gdbarch, uint16_t insn1,
+                             uint16_t insn2, struct regcache *regs,
+                             struct displaced_step_closure *dsc)
+{
+  unsigned int rd = bits (insn2, 8, 11);
+  /* Since immediate has the same encoding in ADR ADD and SUB, so we simply
+     extract raw immediate encoding rather than computing immediate.  When
+     generating ADD or SUB instruction, we can simply perform OR operation to
+     set immediate into ADD.  */
+  unsigned int imm_3_8 = insn2 & 0x70ff;
+  unsigned int imm_i = insn1 & 0x0400; /* Clear all bits except bit 10.  */
+
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying thumb adr r%d, #%d:%d insn %.4x%.4x\n",
+                       rd, imm_i, imm_3_8, insn1, insn2);
+
+  if (bit (insn1, 7)) /* Encoding T2 */
     {
-    case 0x0: case 0x2:
-      return copy_unmodified (gdbarch, insn, "srs", dsc);
+      /* Encoding T3: SUB Rd, Rd, #imm */
+      dsc->modinsn[0] = (0xf1a0 | rd | imm_i);
+      dsc->modinsn[1] = ((rd << 8) | imm_3_8);
+    }
+  else /* Encoding T3 */
+    {
+      /* Encoding T3: ADD Rd, Rd, #imm */
+      dsc->modinsn[0] = (0xf100 | rd | imm_i);
+      dsc->modinsn[1] = ((rd << 8) | imm_3_8);
+    }
+  dsc->numinsns = 2;
 
-    case 0x1: case 0x3:
-      return copy_unmodified (gdbarch, insn, "rfe", dsc);
+  install_pc_relative (gdbarch, regs, dsc, rd);
 
-    case 0x4: case 0x5: case 0x6: case 0x7:
-      return copy_b_bl_blx (gdbarch, insn, regs, dsc);
+  return 0;
+}
 
-    case 0x8:
-      switch ((insn & 0xe00000) >> 21)
-       {
-       case 0x1: case 0x3: case 0x4: case 0x5: case 0x6: case 0x7:
-         /* stc/stc2.  */
-         return copy_copro_load_store (gdbarch, insn, regs, dsc);
+static int
+thumb_copy_16bit_ldr_literal (struct gdbarch *gdbarch, unsigned short insn1,
+                             struct regcache *regs,
+                             struct displaced_step_closure *dsc)
+{
+  unsigned int rt = bits (insn1, 8, 10);
+  unsigned int pc;
+  int imm8 = (bits (insn1, 0, 7) << 2);
+  CORE_ADDR from = dsc->insn_addr;
 
-       case 0x2:
-         return copy_unmodified (gdbarch, insn, "mcrr/mcrr2", dsc);
+  /* LDR Rd, #imm8
 
-       default:
-         return copy_undef (gdbarch, insn, dsc);
-       }
+     Rwrite as:
 
-    case 0x9:
-      {
-        int rn_f = (bits (insn, 16, 19) == 0xf);
-       switch ((insn & 0xe00000) >> 21)
-         {
-         case 0x1: case 0x3:
-           /* ldc/ldc2 imm (undefined for rn == pc).  */
-           return rn_f ? copy_undef (gdbarch, insn, dsc)
-                       : copy_copro_load_store (gdbarch, insn, regs, dsc);
+     Preparation: tmp0 <- R0, tmp2 <- R2, tmp3 <- R3, R2 <- PC, R3 <- #imm8;
 
-         case 0x2:
-           return copy_unmodified (gdbarch, insn, "mrrc/mrrc2", dsc);
+     Insn: LDR R0, [R2, R3];
+     Cleanup: R2 <- tmp2, R3 <- tmp3, Rd <- R0, R0 <- tmp0 */
 
-         case 0x4: case 0x5: case 0x6: case 0x7:
-           /* ldc/ldc2 lit (undefined for rn != pc).  */
-           return rn_f ? copy_copro_load_store (gdbarch, insn, regs, dsc)
-                       : copy_undef (gdbarch, insn, dsc);
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying thumb ldr r%d [pc #%d]\n"
+                       , rt, imm8);
 
-         default:
-           return copy_undef (gdbarch, insn, dsc);
-         }
-      }
+  dsc->tmp[0] = displaced_read_reg (regs, dsc, 0);
+  dsc->tmp[2] = displaced_read_reg (regs, dsc, 2);
+  dsc->tmp[3] = displaced_read_reg (regs, dsc, 3);
+  pc = displaced_read_reg (regs, dsc, ARM_PC_REGNUM);
+  /* The assembler calculates the required value of the offset from the
+     Align(PC,4) value of this instruction to the label.  */
+  pc = pc & 0xfffffffc;
 
-    case 0xa:
-      return copy_unmodified (gdbarch, insn, "stc/stc2", dsc);
+  displaced_write_reg (regs, dsc, 2, pc, CANNOT_WRITE_PC);
+  displaced_write_reg (regs, dsc, 3, imm8, CANNOT_WRITE_PC);
 
-    case 0xb:
-      if (bits (insn, 16, 19) == 0xf)
-        /* ldc/ldc2 lit.  */
-       return copy_copro_load_store (gdbarch, insn, regs, dsc);
-      else
-       return copy_undef (gdbarch, insn, dsc);
+  dsc->rd = rt;
+  dsc->u.ldst.xfersize = 4;
+  dsc->u.ldst.rn = 0;
+  dsc->u.ldst.immed = 0;
+  dsc->u.ldst.writeback = 0;
+  dsc->u.ldst.restore_r4 = 0;
 
-    case 0xc:
-      if (bit (insn, 4))
-       return copy_unmodified (gdbarch, insn, "mcr/mcr2", dsc);
-      else
-       return copy_unmodified (gdbarch, insn, "cdp/cdp2", dsc);
+  dsc->modinsn[0] = 0x58d0; /* ldr r0, [r2, r3]*/
 
-    case 0xd:
-      if (bit (insn, 4))
-       return copy_unmodified (gdbarch, insn, "mrc/mrc2", dsc);
-      else
-       return copy_unmodified (gdbarch, insn, "cdp/cdp2", dsc);
+  dsc->cleanup = &cleanup_load;
 
-    default:
-      return copy_undef (gdbarch, insn, dsc);
-    }
+  return 0;
 }
 
-/* Decode miscellaneous instructions in dp/misc encoding space.  */
+/* Copy Thumb cbnz/cbz insruction.  */
 
 static int
-decode_miscellaneous (struct gdbarch *gdbarch, uint32_t insn,
-                     struct regcache *regs, struct displaced_step_closure *dsc)
+thumb_copy_cbnz_cbz (struct gdbarch *gdbarch, uint16_t insn1,
+                    struct regcache *regs,
+                    struct displaced_step_closure *dsc)
 {
-  unsigned int op2 = bits (insn, 4, 6);
-  unsigned int op = bits (insn, 21, 22);
-  unsigned int op1 = bits (insn, 16, 19);
+  int non_zero = bit (insn1, 11);
+  unsigned int imm5 = (bit (insn1, 9) << 6) | (bits (insn1, 3, 7) << 1);
+  CORE_ADDR from = dsc->insn_addr;
+  int rn = bits (insn1, 0, 2);
+  int rn_val = displaced_read_reg (regs, dsc, rn);
 
-  switch (op2)
+  dsc->u.branch.cond = (rn_val && non_zero) || (!rn_val && !non_zero);
+  /* CBNZ and CBZ do not affect the condition flags.  If condition is true,
+     set it INST_AL, so cleanup_branch will know branch is taken, otherwise,
+     condition is false, let it be, cleanup_branch will do nothing.  */
+  if (dsc->u.branch.cond)
     {
-    case 0x0:
-      return copy_unmodified (gdbarch, insn, "mrs/msr", dsc);
-
-    case 0x1:
-      if (op == 0x1)  /* bx.  */
-       return copy_bx_blx_reg (gdbarch, insn, regs, dsc);
-      else if (op == 0x3)
-       return copy_unmodified (gdbarch, insn, "clz", dsc);
-      else
-       return copy_undef (gdbarch, insn, dsc);
-
-    case 0x2:
-      if (op == 0x1)
-        /* Not really supported.  */
-       return copy_unmodified (gdbarch, insn, "bxj", dsc);
-      else
-       return copy_undef (gdbarch, insn, dsc);
+      dsc->u.branch.cond = INST_AL;
+      dsc->u.branch.dest = from + 4 + imm5;
+    }
+  else
+      dsc->u.branch.dest = from + 2;
 
-    case 0x3:
-      if (op == 0x1)
-       return copy_bx_blx_reg (gdbarch, insn, regs, dsc);  /* blx register.  */
-      else
-       return copy_undef (gdbarch, insn, dsc);
+  dsc->u.branch.link = 0;
+  dsc->u.branch.exchange = 0;
 
-    case 0x5:
-      return copy_unmodified (gdbarch, insn, "saturating add/sub", dsc);
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: copying %s [r%d = 0x%x]"
+                       " insn %.4x to %.8lx\n", non_zero ? "cbnz" : "cbz",
+                       rn, rn_val, insn1, dsc->u.branch.dest);
 
-    case 0x7:
-      if (op == 0x1)
-       return copy_unmodified (gdbarch, insn, "bkpt", dsc);
-      else if (op == 0x3)
-        /* Not really supported.  */
-       return copy_unmodified (gdbarch, insn, "smc", dsc);
+  dsc->modinsn[0] = THUMB_NOP;
 
-    default:
-      return copy_undef (gdbarch, insn, dsc);
-    }
+  dsc->cleanup = &cleanup_branch;
+  return 0;
 }
 
+/* Copy Table Branch Byte/Halfword */
 static int
-decode_dp_misc (struct gdbarch *gdbarch, uint32_t insn, struct regcache *regs,
-               struct displaced_step_closure *dsc)
+thumb2_copy_table_branch (struct gdbarch *gdbarch, uint16_t insn1,
+                         uint16_t insn2, struct regcache *regs,
+                         struct displaced_step_closure *dsc)
 {
-  if (bit (insn, 25))
-    switch (bits (insn, 20, 24))
-      {
-      case 0x10:
-       return copy_unmodified (gdbarch, insn, "movw", dsc);
+  ULONGEST rn_val, rm_val;
+  int is_tbh = bit (insn2, 4);
+  CORE_ADDR halfwords = 0;
+  enum bfd_endian byte_order = gdbarch_byte_order (gdbarch);
 
-      case 0x14:
-       return copy_unmodified (gdbarch, insn, "movt", dsc);
+  rn_val = displaced_read_reg (regs, dsc, bits (insn1, 0, 3));
+  rm_val = displaced_read_reg (regs, dsc, bits (insn2, 0, 3));
 
-      case 0x12: case 0x16:
-       return copy_unmodified (gdbarch, insn, "msr imm", dsc);
+  if (is_tbh)
+    {
+      gdb_byte buf[2];
 
-      default:
-       return copy_alu_imm (gdbarch, insn, regs, dsc);
-      }
+      target_read_memory (rn_val + 2 * rm_val, buf, 2);
+      halfwords = extract_unsigned_integer (buf, 2, byte_order);
+    }
   else
     {
-      uint32_t op1 = bits (insn, 20, 24), op2 = bits (insn, 4, 7);
+      gdb_byte buf[1];
 
-      if ((op1 & 0x19) != 0x10 && (op2 & 0x1) == 0x0)
-       return copy_alu_reg (gdbarch, insn, regs, dsc);
-      else if ((op1 & 0x19) != 0x10 && (op2 & 0x9) == 0x1)
-       return copy_alu_shifted_reg (gdbarch, insn, regs, dsc);
-      else if ((op1 & 0x19) == 0x10 && (op2 & 0x8) == 0x0)
-       return decode_miscellaneous (gdbarch, insn, regs, dsc);
-      else if ((op1 & 0x19) == 0x10 && (op2 & 0x9) == 0x8)
-       return copy_unmodified (gdbarch, insn, "halfword mul/mla", dsc);
-      else if ((op1 & 0x10) == 0x00 && op2 == 0x9)
-       return copy_unmodified (gdbarch, insn, "mul/mla", dsc);
-      else if ((op1 & 0x10) == 0x10 && op2 == 0x9)
-       return copy_unmodified (gdbarch, insn, "synch", dsc);
-      else if (op2 == 0xb || (op2 & 0xd) == 0xd)
-       /* 2nd arg means "unpriveleged".  */
-       return copy_extra_ld_st (gdbarch, insn, (op1 & 0x12) == 0x02, regs,
-                                dsc);
+      target_read_memory (rn_val + rm_val, buf, 1);
+      halfwords = extract_unsigned_integer (buf, 1, byte_order);
     }
 
-  /* Should be unreachable.  */
-  return 1;
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: %s base 0x%x offset 0x%x"
+                       " offset 0x%x\n", is_tbh ? "tbh" : "tbb",
+                       (unsigned int) rn_val, (unsigned int) rm_val,
+                       (unsigned int) halfwords);
+
+  dsc->u.branch.cond = INST_AL;
+  dsc->u.branch.link = 0;
+  dsc->u.branch.exchange = 0;
+  dsc->u.branch.dest = dsc->insn_addr + 4 + 2 * halfwords;
+
+  dsc->cleanup = &cleanup_branch;
+
+  return 0;
+}
+
+static void
+cleanup_pop_pc_16bit_all (struct gdbarch *gdbarch, struct regcache *regs,
+                         struct displaced_step_closure *dsc)
+{
+  /* PC <- r7 */
+  int val = displaced_read_reg (regs, dsc, 7);
+  displaced_write_reg (regs, dsc, ARM_PC_REGNUM, val, BX_WRITE_PC);
+
+  /* r7 <- r8 */
+  val = displaced_read_reg (regs, dsc, 8);
+  displaced_write_reg (regs, dsc, 7, val, CANNOT_WRITE_PC);
+
+  /* r8 <- tmp[0] */
+  displaced_write_reg (regs, dsc, 8, dsc->tmp[0], CANNOT_WRITE_PC);
+
 }
 
 static int
-decode_ld_st_word_ubyte (struct gdbarch *gdbarch, uint32_t insn,
+thumb_copy_pop_pc_16bit (struct gdbarch *gdbarch, unsigned short insn1,
                         struct regcache *regs,
                         struct displaced_step_closure *dsc)
 {
-  int a = bit (insn, 25), b = bit (insn, 4);
-  uint32_t op1 = bits (insn, 20, 24);
-  int rn_f = bits (insn, 16, 19) == 0xf;
+  dsc->u.block.regmask = insn1 & 0x00ff;
 
-  if ((!a && (op1 & 0x05) == 0x00 && (op1 & 0x17) != 0x02)
-      || (a && (op1 & 0x05) == 0x00 && (op1 & 0x17) != 0x02 && !b))
-    return copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 0, 0, 0);
-  else if ((!a && (op1 & 0x17) == 0x02)
-           || (a && (op1 & 0x17) == 0x02 && !b))
-    return copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 0, 0, 1);
-  else if ((!a && (op1 & 0x05) == 0x01 && (op1 & 0x17) != 0x03)
-           || (a && (op1 & 0x05) == 0x01 && (op1 & 0x17) != 0x03 && !b))
-    return copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 1, 0, 0);
-  else if ((!a && (op1 & 0x17) == 0x03)
-          || (a && (op1 & 0x17) == 0x03 && !b))
-    return copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 1, 0, 1);
-  else if ((!a && (op1 & 0x05) == 0x04 && (op1 & 0x17) != 0x06)
-           || (a && (op1 & 0x05) == 0x04 && (op1 & 0x17) != 0x06 && !b))
-    return copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 0, 1, 0);
-  else if ((!a && (op1 & 0x17) == 0x06)
-          || (a && (op1 & 0x17) == 0x06 && !b))
-    return copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 0, 1, 1);
-  else if ((!a && (op1 & 0x05) == 0x05 && (op1 & 0x17) != 0x07)
-          || (a && (op1 & 0x05) == 0x05 && (op1 & 0x17) != 0x07 && !b))
-    return copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 1, 1, 0);
-  else if ((!a && (op1 & 0x17) == 0x07)
-          || (a && (op1 & 0x17) == 0x07 && !b))
-    return copy_ldr_str_ldrb_strb (gdbarch, insn, regs, dsc, 1, 1, 1);
+  /* Rewrite instruction: POP {rX, rY, ...,rZ, PC}
+     to :
 
-  /* Should be unreachable.  */
-  return 1;
-}
+     (1) register list is full, that is, r0-r7 are used.
+     Prepare: tmp[0] <- r8
 
-static int
-decode_media (struct gdbarch *gdbarch, uint32_t insn,
-             struct displaced_step_closure *dsc)
-{
-  switch (bits (insn, 20, 24))
+     POP {r0, r1, ...., r6, r7}; remove PC from reglist
+     MOV r8, r7; Move value of r7 to r8;
+     POP {r7}; Store PC value into r7.
+
+     Cleanup: PC <- r7, r7 <- r8, r8 <-tmp[0]
+
+     (2) register list is not full, supposing there are N registers in
+     register list (except PC, 0 <= N <= 7).
+     Prepare: for each i, 0 - N, tmp[i] <- ri.
+
+     POP {r0, r1, ...., rN};
+
+     Cleanup: Set registers in original reglist from r0 - rN.  Restore r0 - rN
+     from tmp[] properly.
+  */
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog,
+                       "displaced: copying thumb pop {%.8x, pc} insn %.4x\n",
+                       dsc->u.block.regmask, insn1);
+
+  if (dsc->u.block.regmask == 0xff)
     {
-    case 0x00: case 0x01: case 0x02: case 0x03:
-      return copy_unmodified (gdbarch, insn, "parallel add/sub signed", dsc);
+      dsc->tmp[0] = displaced_read_reg (regs, dsc, 8);
 
-    case 0x04: case 0x05: case 0x06: case 0x07:
-      return copy_unmodified (gdbarch, insn, "parallel add/sub unsigned", dsc);
+      dsc->modinsn[0] = (insn1 & 0xfeff); /* POP {r0,r1,...,r6, r7} */
+      dsc->modinsn[1] = 0x46b8; /* MOV r8, r7 */
+      dsc->modinsn[2] = 0xbc80; /* POP {r7} */
 
-    case 0x08: case 0x09: case 0x0a: case 0x0b:
-    case 0x0c: case 0x0d: case 0x0e: case 0x0f:
-      return copy_unmodified (gdbarch, insn,
-                             "decode/pack/unpack/saturate/reverse", dsc);
+      dsc->numinsns = 3;
+      dsc->cleanup = &cleanup_pop_pc_16bit_all;
+    }
+  else
+    {
+      unsigned int num_in_list = bitcount (dsc->u.block.regmask);
+      unsigned int new_regmask, bit = 1;
+      unsigned int to = 0, from = 0, i, new_rn;
 
-    case 0x18:
-      if (bits (insn, 5, 7) == 0)  /* op2.  */
-        {
-         if (bits (insn, 12, 15) == 0xf)
-           return copy_unmodified (gdbarch, insn, "usad8", dsc);
-         else
-           return copy_unmodified (gdbarch, insn, "usada8", dsc);
-       }
-      else
-        return copy_undef (gdbarch, insn, dsc);
+      for (i = 0; i < num_in_list + 1; i++)
+       dsc->tmp[i] = displaced_read_reg (regs, dsc, i);
 
-    case 0x1a: case 0x1b:
-      if (bits (insn, 5, 6) == 0x2)  /* op2[1:0].  */
-       return copy_unmodified (gdbarch, insn, "sbfx", dsc);
-      else
-       return copy_undef (gdbarch, insn, dsc);
+      new_regmask = (1 << (num_in_list + 1)) - 1;
 
-    case 0x1c: case 0x1d:
-      if (bits (insn, 5, 6) == 0x0)  /* op2[1:0].  */
-        {
-         if (bits (insn, 0, 3) == 0xf)
-           return copy_unmodified (gdbarch, insn, "bfc", dsc);
-         else
-           return copy_unmodified (gdbarch, insn, "bfi", dsc);
-       }
-      else
-       return copy_undef (gdbarch, insn, dsc);
+      if (debug_displaced)
+       fprintf_unfiltered (gdb_stdlog, _("displaced: POP "
+                                         "{..., pc}: original reg list %.4x,"
+                                         " modified list %.4x\n"),
+                           (int) dsc->u.block.regmask, new_regmask);
 
-    case 0x1e: case 0x1f:
-      if (bits (insn, 5, 6) == 0x2)  /* op2[1:0].  */
-       return copy_unmodified (gdbarch, insn, "ubfx", dsc);
-      else
-       return copy_undef (gdbarch, insn, dsc);
+      dsc->u.block.regmask |= 0x8000;
+      dsc->u.block.writeback = 0;
+      dsc->u.block.cond = INST_AL;
+
+      dsc->modinsn[0] = (insn1 & ~0x1ff) | (new_regmask & 0xff);
+
+      dsc->cleanup = &cleanup_block_load_pc;
     }
 
-  /* Should be unreachable.  */
-  return 1;
+  return 0;
 }
 
-static int
-decode_b_bl_ldmstm (struct gdbarch *gdbarch, int32_t insn,
-                   struct regcache *regs, struct displaced_step_closure *dsc)
+static void
+thumb_process_displaced_16bit_insn (struct gdbarch *gdbarch, uint16_t insn1,
+                                   struct regcache *regs,
+                                   struct displaced_step_closure *dsc)
 {
-  if (bit (insn, 25))
-    return copy_b_bl_blx (gdbarch, insn, regs, dsc);
-  else
-    return copy_block_xfer (gdbarch, insn, regs, dsc);
+  unsigned short op_bit_12_15 = bits (insn1, 12, 15);
+  unsigned short op_bit_10_11 = bits (insn1, 10, 11);
+  int err = 0;
+
+  /* 16-bit thumb instructions.  */
+  switch (op_bit_12_15)
+    {
+      /* Shift (imme), add, subtract, move and compare.  */
+    case 0: case 1: case 2: case 3:
+      err = thumb_copy_unmodified_16bit (gdbarch, insn1,
+                                        "shift/add/sub/mov/cmp",
+                                        dsc);
+      break;
+    case 4:
+      switch (op_bit_10_11)
+       {
+       case 0: /* Data-processing */
+         err = thumb_copy_unmodified_16bit (gdbarch, insn1,
+                                            "data-processing",
+                                            dsc);
+         break;
+       case 1: /* Special data instructions and branch and exchange.  */
+         {
+           unsigned short op = bits (insn1, 7, 9);
+           if (op == 6 || op == 7) /* BX or BLX */
+             err = thumb_copy_bx_blx_reg (gdbarch, insn1, regs, dsc);
+           else if (bits (insn1, 6, 7) != 0) /* ADD/MOV/CMP high registers.  */
+             err = thumb_copy_alu_reg (gdbarch, insn1, regs, dsc);
+           else
+             err = thumb_copy_unmodified_16bit (gdbarch, insn1, "special data",
+                                                dsc);
+         }
+         break;
+       default: /* LDR (literal) */
+         err = thumb_copy_16bit_ldr_literal (gdbarch, insn1, regs, dsc);
+       }
+      break;
+    case 5: case 6: case 7: case 8: case 9: /* Load/Store single data item */
+      err = thumb_copy_unmodified_16bit (gdbarch, insn1, "ldr/str", dsc);
+      break;
+    case 10:
+      if (op_bit_10_11 < 2) /* Generate PC-relative address */
+       err = thumb_decode_pc_relative_16bit (gdbarch, insn1, regs, dsc);
+      else /* Generate SP-relative address */
+       err = thumb_copy_unmodified_16bit (gdbarch, insn1, "sp-relative", dsc);
+      break;
+    case 11: /* Misc 16-bit instructions */
+      {
+       switch (bits (insn1, 8, 11))
+         {
+         case 1: case 3:  case 9: case 11: /* CBNZ, CBZ */
+           err = thumb_copy_cbnz_cbz (gdbarch, insn1, regs, dsc);
+           break;
+         case 12: case 13: /* POP */
+           if (bit (insn1, 8)) /* PC is in register list.  */
+             err = thumb_copy_pop_pc_16bit (gdbarch, insn1, regs, dsc);
+           else
+             err = thumb_copy_unmodified_16bit (gdbarch, insn1, "pop", dsc);
+           break;
+         case 15: /* If-Then, and hints */
+           if (bits (insn1, 0, 3))
+             /* If-Then makes up to four following instructions conditional.
+                IT instruction itself is not conditional, so handle it as a
+                common unmodified instruction.  */
+             err = thumb_copy_unmodified_16bit (gdbarch, insn1, "If-Then",
+                                                dsc);
+           else
+             err = thumb_copy_unmodified_16bit (gdbarch, insn1, "hints", dsc);
+           break;
+         default:
+           err = thumb_copy_unmodified_16bit (gdbarch, insn1, "misc", dsc);
+         }
+      }
+      break;
+    case 12:
+      if (op_bit_10_11 < 2) /* Store multiple registers */
+       err = thumb_copy_unmodified_16bit (gdbarch, insn1, "stm", dsc);
+      else /* Load multiple registers */
+       err = thumb_copy_unmodified_16bit (gdbarch, insn1, "ldm", dsc);
+      break;
+    case 13: /* Conditional branch and supervisor call */
+      if (bits (insn1, 9, 11) != 7) /* conditional branch */
+       err = thumb_copy_b (gdbarch, insn1, dsc);
+      else
+       err = thumb_copy_svc (gdbarch, insn1, regs, dsc);
+      break;
+    case 14: /* Unconditional branch */
+      err = thumb_copy_b (gdbarch, insn1, dsc);
+      break;
+    default:
+      err = 1;
+    }
+
+  if (err)
+    internal_error (__FILE__, __LINE__,
+                   _("thumb_process_displaced_16bit_insn: Instruction decode error"));
 }
 
 static int
-decode_ext_reg_ld_st (struct gdbarch *gdbarch, uint32_t insn,
-                     struct regcache *regs, struct displaced_step_closure *dsc)
-{
-  unsigned int opcode = bits (insn, 20, 24);
+decode_thumb_32bit_ld_mem_hints (struct gdbarch *gdbarch,
+                                uint16_t insn1, uint16_t insn2,
+                                struct regcache *regs,
+                                struct displaced_step_closure *dsc)
+{
+  int rt = bits (insn2, 12, 15);
+  int rn = bits (insn1, 0, 3);
+  int op1 = bits (insn1, 7, 8);
+  int err = 0;
 
-  switch (opcode)
+  switch (bits (insn1, 5, 6))
     {
-    case 0x04: case 0x05:  /* VFP/Neon mrrc/mcrr.  */
-      return copy_unmodified (gdbarch, insn, "vfp/neon mrrc/mcrr", dsc);
+    case 0: /* Load byte and memory hints */
+      if (rt == 0xf) /* PLD/PLI */
+       {
+         if (rn == 0xf)
+           /* PLD literal or Encoding T3 of PLI(immediate, literal).  */
+           return thumb2_copy_preload (gdbarch, insn1, insn2, regs, dsc);
+         else
+           return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                               "pli/pld", dsc);
+       }
+      else
+       {
+         if (rn == 0xf) /* LDRB/LDRSB (literal) */
+           return thumb2_copy_load_literal (gdbarch, insn1, insn2, regs, dsc,
+                                            1);
+         else
+           return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                               "ldrb{reg, immediate}/ldrbt",
+                                               dsc);
+       }
 
-    case 0x08: case 0x0a: case 0x0c: case 0x0e:
-    case 0x12: case 0x16:
-      return copy_unmodified (gdbarch, insn, "vfp/neon vstm/vpush", dsc);
+      break;
+    case 1: /* Load halfword and memory hints.  */
+      if (rt == 0xf) /* PLD{W} and Unalloc memory hint.  */
+       return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                           "pld/unalloc memhint", dsc);
+      else
+       {
+         if (rn == 0xf)
+           return thumb2_copy_load_literal (gdbarch, insn1, insn2, regs, dsc,
+                                            2);
+         else
+           return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                               "ldrh/ldrht", dsc);
+       }
+      break;
+    case 2: /* Load word */
+      {
+       int insn2_bit_8_11 = bits (insn2, 8, 11);
+
+       if (rn == 0xf)
+         return thumb2_copy_load_literal (gdbarch, insn1, insn2, regs, dsc, 4);
+       else if (op1 == 0x1) /* Encoding T3 */
+         return thumb2_copy_load_reg_imm (gdbarch, insn1, insn2, regs, dsc,
+                                          0, 1);
+       else /* op1 == 0x0 */
+         {
+           if (insn2_bit_8_11 == 0xc || (insn2_bit_8_11 & 0x9) == 0x9)
+             /* LDR (immediate) */
+             return thumb2_copy_load_reg_imm (gdbarch, insn1, insn2, regs,
+                                              dsc, bit (insn2, 8), 1);
+           else if (insn2_bit_8_11 == 0xe) /* LDRT */
+             return thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                                 "ldrt", dsc);
+           else
+             /* LDR (register) */
+             return thumb2_copy_load_reg_imm (gdbarch, insn1, insn2, regs,
+                                              dsc, 0, 0);
+         }
+       break;
+      }
+    default:
+      return thumb_32bit_copy_undef (gdbarch, insn1, insn2, dsc);
+      break;
+    }
+  return 0;
+}
 
-    case 0x09: case 0x0b: case 0x0d: case 0x0f:
-    case 0x13: case 0x17:
-      return copy_unmodified (gdbarch, insn, "vfp/neon vldm/vpop", dsc);
+static void
+thumb_process_displaced_32bit_insn (struct gdbarch *gdbarch, uint16_t insn1,
+                                   uint16_t insn2, struct regcache *regs,
+                                   struct displaced_step_closure *dsc)
+{
+  int err = 0;
+  unsigned short op = bit (insn2, 15);
+  unsigned int op1 = bits (insn1, 11, 12);
 
-    case 0x10: case 0x14: case 0x18: case 0x1c:  /* vstr.  */
-    case 0x11: case 0x15: case 0x19: case 0x1d:  /* vldr.  */
-      /* Note: no writeback for these instructions.  Bit 25 will always be
-        zero though (via caller), so the following works OK.  */
-      return copy_copro_load_store (gdbarch, insn, regs, dsc);
+  switch (op1)
+    {
+    case 1:
+      {
+       switch (bits (insn1, 9, 10))
+         {
+         case 0:
+           if (bit (insn1, 6))
+             {
+               /* Load/store {dual, execlusive}, table branch.  */
+               if (bits (insn1, 7, 8) == 1 && bits (insn1, 4, 5) == 1
+                   && bits (insn2, 5, 7) == 0)
+                 err = thumb2_copy_table_branch (gdbarch, insn1, insn2, regs,
+                                                 dsc);
+               else
+                 /* PC is not allowed to use in load/store {dual, exclusive}
+                    instructions.  */
+                 err = thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                                    "load/store dual/ex", dsc);
+             }
+           else /* load/store multiple */
+             {
+               switch (bits (insn1, 7, 8))
+                 {
+                 case 0: case 3: /* SRS, RFE */
+                   err = thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                                      "srs/rfe", dsc);
+                   break;
+                 case 1: case 2: /* LDM/STM/PUSH/POP */
+                   err = thumb2_copy_block_xfer (gdbarch, insn1, insn2, regs, dsc);
+                   break;
+                 }
+             }
+           break;
+
+         case 1:
+           /* Data-processing (shift register).  */
+           err = thumb2_decode_dp_shift_reg (gdbarch, insn1, insn2, regs,
+                                             dsc);
+           break;
+         default: /* Coprocessor instructions.  */
+           err = thumb2_decode_svc_copro (gdbarch, insn1, insn2, regs, dsc);
+           break;
+         }
+      break;
+      }
+    case 2: /* op1 = 2 */
+      if (op) /* Branch and misc control.  */
+       {
+         if (bit (insn2, 14)  /* BLX/BL */
+             || bit (insn2, 12) /* Unconditional branch */
+             || (bits (insn1, 7, 9) != 0x7)) /* Conditional branch */
+           err = thumb2_copy_b_bl_blx (gdbarch, insn1, insn2, regs, dsc);
+         else
+           err = thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                              "misc ctrl", dsc);
+       }
+      else
+       {
+         if (bit (insn1, 9)) /* Data processing (plain binary imm).  */
+           {
+             int op = bits (insn1, 4, 8);
+             int rn = bits (insn1, 0, 3);
+             if ((op == 0 || op == 0xa) && rn == 0xf)
+               err = thumb_copy_pc_relative_32bit (gdbarch, insn1, insn2,
+                                                   regs, dsc);
+             else
+               err = thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                                  "dp/pb", dsc);
+           }
+         else /* Data processing (modified immeidate) */
+           err = thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                              "dp/mi", dsc);
+       }
+      break;
+    case 3: /* op1 = 3 */
+      switch (bits (insn1, 9, 10))
+       {
+       case 0:
+         if (bit (insn1, 4))
+           err = decode_thumb_32bit_ld_mem_hints (gdbarch, insn1, insn2,
+                                                  regs, dsc);
+         else /* NEON Load/Store and Store single data item */
+           err = thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                              "neon elt/struct load/store",
+                                              dsc);
+         break;
+       case 1: /* op1 = 3, bits (9, 10) == 1 */
+         switch (bits (insn1, 7, 8))
+           {
+           case 0: case 1: /* Data processing (register) */
+             err = thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                                "dp(reg)", dsc);
+             break;
+           case 2: /* Multiply and absolute difference */
+             err = thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                                "mul/mua/diff", dsc);
+             break;
+           case 3: /* Long multiply and divide */
+             err = thumb_copy_unmodified_32bit (gdbarch, insn1, insn2,
+                                                "lmul/lmua", dsc);
+             break;
+           }
+         break;
+       default: /* Coprocessor instructions */
+         err = thumb2_decode_svc_copro (gdbarch, insn1, insn2, regs, dsc);
+         break;
+       }
+      break;
+    default:
+      err = 1;
     }
 
-  /* Should be unreachable.  */
-  return 1;
+  if (err)
+    internal_error (__FILE__, __LINE__,
+                   _("thumb_process_displaced_32bit_insn: Instruction decode error"));
+
 }
 
-static int
-decode_svc_copro (struct gdbarch *gdbarch, uint32_t insn, CORE_ADDR to,
-                 struct regcache *regs, struct displaced_step_closure *dsc)
+static void
+thumb_process_displaced_insn (struct gdbarch *gdbarch, CORE_ADDR from,
+                             CORE_ADDR to, struct regcache *regs,
+                             struct displaced_step_closure *dsc)
 {
-  unsigned int op1 = bits (insn, 20, 25);
-  int op = bit (insn, 4);
-  unsigned int coproc = bits (insn, 8, 11);
-  unsigned int rn = bits (insn, 16, 19);
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  uint16_t insn1
+    = read_memory_unsigned_integer (from, 2, byte_order_for_code);
 
-  if ((op1 & 0x20) == 0x00 && (op1 & 0x3a) != 0x00 && (coproc & 0xe) == 0xa)
-    return decode_ext_reg_ld_st (gdbarch, insn, regs, dsc);
-  else if ((op1 & 0x21) == 0x00 && (op1 & 0x3a) != 0x00
-          && (coproc & 0xe) != 0xa)
-    /* stc/stc2.  */
-    return copy_copro_load_store (gdbarch, insn, regs, dsc);
-  else if ((op1 & 0x21) == 0x01 && (op1 & 0x3a) != 0x00
-          && (coproc & 0xe) != 0xa)
-    /* ldc/ldc2 imm/lit.  */
-    return copy_copro_load_store (gdbarch, insn, regs, dsc);
-  else if ((op1 & 0x3e) == 0x00)
-    return copy_undef (gdbarch, insn, dsc);
-  else if ((op1 & 0x3e) == 0x04 && (coproc & 0xe) == 0xa)
-    return copy_unmodified (gdbarch, insn, "neon 64bit xfer", dsc);
-  else if (op1 == 0x04 && (coproc & 0xe) != 0xa)
-    return copy_unmodified (gdbarch, insn, "mcrr/mcrr2", dsc);
-  else if (op1 == 0x05 && (coproc & 0xe) != 0xa)
-    return copy_unmodified (gdbarch, insn, "mrrc/mrrc2", dsc);
-  else if ((op1 & 0x30) == 0x20 && !op)
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: process thumb insn %.4x "
+                       "at %.8lx\n", insn1, (unsigned long) from);
+
+  dsc->is_thumb = 1;
+  dsc->insn_size = thumb_insn_size (insn1);
+  if (thumb_insn_size (insn1) == 4)
     {
-      if ((coproc & 0xe) == 0xa)
-       return copy_unmodified (gdbarch, insn, "vfp dataproc", dsc);
-      else
-       return copy_unmodified (gdbarch, insn, "cdp/cdp2", dsc);
+      uint16_t insn2
+       = read_memory_unsigned_integer (from + 2, 2, byte_order_for_code);
+      thumb_process_displaced_32bit_insn (gdbarch, insn1, insn2, regs, dsc);
     }
-  else if ((op1 & 0x30) == 0x20 && op)
-    return copy_unmodified (gdbarch, insn, "neon 8/16/32 bit xfer", dsc);
-  else if ((op1 & 0x31) == 0x20 && op && (coproc & 0xe) != 0xa)
-    return copy_unmodified (gdbarch, insn, "mcr/mcr2", dsc);
-  else if ((op1 & 0x31) == 0x21 && op && (coproc & 0xe) != 0xa)
-    return copy_unmodified (gdbarch, insn, "mrc/mrc2", dsc);
-  else if ((op1 & 0x30) == 0x30)
-    return copy_svc (gdbarch, insn, to, regs, dsc);
   else
-    return copy_undef (gdbarch, insn, dsc);  /* Possibly unreachable.  */
+    thumb_process_displaced_16bit_insn (gdbarch, insn1, regs, dsc);
 }
 
 void
-arm_process_displaced_insn (struct gdbarch *gdbarch, uint32_t insn,
-                           CORE_ADDR from, CORE_ADDR to, struct regcache *regs,
+arm_process_displaced_insn (struct gdbarch *gdbarch, CORE_ADDR from,
+                           CORE_ADDR to, struct regcache *regs,
                            struct displaced_step_closure *dsc)
 {
   int err = 0;
-
-  if (!displaced_in_arm_mode (regs))
-    error (_("Displaced stepping is only supported in ARM mode"));
+  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  uint32_t insn;
 
   /* Most displaced instructions use a 1-instruction scratch space, so set this
      here and override below if/when necessary.  */
@@ -6039,28 +8438,39 @@ arm_process_displaced_insn (struct gdbarch *gdbarch, uint32_t insn,
   dsc->cleanup = NULL;
   dsc->wrote_to_pc = 0;
 
+  if (!displaced_in_arm_mode (regs))
+    return thumb_process_displaced_insn (gdbarch, from, to, regs, dsc);
+
+  dsc->is_thumb = 0;
+  dsc->insn_size = 4;
+  insn = read_memory_unsigned_integer (from, 4, byte_order_for_code);
+  if (debug_displaced)
+    fprintf_unfiltered (gdb_stdlog, "displaced: stepping insn %.8lx "
+                       "at %.8lx\n", (unsigned long) insn,
+                       (unsigned long) from);
+
   if ((insn & 0xf0000000) == 0xf0000000)
-    err = decode_unconditional (gdbarch, insn, regs, dsc);
+    err = arm_decode_unconditional (gdbarch, insn, regs, dsc);
   else switch (((insn & 0x10) >> 4) | ((insn & 0xe000000) >> 24))
     {
     case 0x0: case 0x1: case 0x2: case 0x3:
-      err = decode_dp_misc (gdbarch, insn, regs, dsc);
+      err = arm_decode_dp_misc (gdbarch, insn, regs, dsc);
       break;
 
     case 0x4: case 0x5: case 0x6:
-      err = decode_ld_st_word_ubyte (gdbarch, insn, regs, dsc);
+      err = arm_decode_ld_st_word_ubyte (gdbarch, insn, regs, dsc);
       break;
 
     case 0x7:
-      err = decode_media (gdbarch, insn, dsc);
+      err = arm_decode_media (gdbarch, insn, dsc);
       break;
 
     case 0x8: case 0x9: case 0xa: case 0xb:
-      err = decode_b_bl_ldmstm (gdbarch, insn, regs, dsc);
+      err = arm_decode_b_bl_ldmstm (gdbarch, insn, regs, dsc);
       break;
 
     case 0xc: case 0xd: case 0xe: case 0xf:
-      err = decode_svc_copro (gdbarch, insn, to, regs, dsc);
+      err = arm_decode_svc_copro (gdbarch, insn, to, regs, dsc);
       break;
     }
 
@@ -6076,23 +8486,49 @@ arm_displaced_init_closure (struct gdbarch *gdbarch, CORE_ADDR from,
                            CORE_ADDR to, struct displaced_step_closure *dsc)
 {
   struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
-  unsigned int i;
+  unsigned int i, len, offset;
   enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
+  int size = dsc->is_thumb? 2 : 4;
+  const unsigned char *bkp_insn;
 
+  offset = 0;
   /* Poke modified instruction(s).  */
   for (i = 0; i < dsc->numinsns; i++)
     {
       if (debug_displaced)
-       fprintf_unfiltered (gdb_stdlog, "displaced: writing insn %.8lx at "
-                           "%.8lx\n", (unsigned long) dsc->modinsn[i],
-                           (unsigned long) to + i * 4);
-      write_memory_unsigned_integer (to + i * 4, 4, byte_order_for_code,
+       {
+         fprintf_unfiltered (gdb_stdlog, "displaced: writing insn ");
+         if (size == 4)
+           fprintf_unfiltered (gdb_stdlog, "%.8lx",
+                               dsc->modinsn[i]);
+         else if (size == 2)
+           fprintf_unfiltered (gdb_stdlog, "%.4x",
+                               (unsigned short)dsc->modinsn[i]);
+
+         fprintf_unfiltered (gdb_stdlog, " at %.8lx\n",
+                             (unsigned long) to + offset);
+
+       }
+      write_memory_unsigned_integer (to + offset, size,
+                                    byte_order_for_code,
                                     dsc->modinsn[i]);
+      offset += size;
+    }
+
+  /* Choose the correct breakpoint instruction.  */
+  if (dsc->is_thumb)
+    {
+      bkp_insn = tdep->thumb_breakpoint;
+      len = tdep->thumb_breakpoint_size;
+    }
+  else
+    {
+      bkp_insn = tdep->arm_breakpoint;
+      len = tdep->arm_breakpoint_size;
     }
 
   /* Put breakpoint afterwards.  */
-  write_memory (to + dsc->numinsns * 4, tdep->arm_breakpoint,
-               tdep->arm_breakpoint_size);
+  write_memory (to + offset, bkp_insn, len);
 
   if (debug_displaced)
     fprintf_unfiltered (gdb_stdlog, "displaced: copy %s->%s: ",
@@ -6109,15 +8545,7 @@ arm_displaced_step_copy_insn (struct gdbarch *gdbarch,
 {
   struct displaced_step_closure *dsc
     = xmalloc (sizeof (struct displaced_step_closure));
-  enum bfd_endian byte_order_for_code = gdbarch_byte_order_for_code (gdbarch);
-  uint32_t insn = read_memory_unsigned_integer (from, 4, byte_order_for_code);
-
-  if (debug_displaced)
-    fprintf_unfiltered (gdb_stdlog, "displaced: stepping insn %.8lx "
-                       "at %.8lx\n", (unsigned long) insn,
-                       (unsigned long) from);
-
-  arm_process_displaced_insn (gdbarch, insn, from, to, regs, dsc);
+  arm_process_displaced_insn (gdbarch, from, to, regs, dsc);
   arm_displaced_init_closure (gdbarch, from, to, dsc);
 
   return dsc;
@@ -6136,7 +8564,9 @@ arm_displaced_step_fixup (struct gdbarch *gdbarch,
     dsc->cleanup (gdbarch, regs, dsc);
 
   if (!dsc->wrote_to_pc)
-    regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM, dsc->insn_addr + 4);
+    regcache_cooked_write_unsigned (regs, ARM_PC_REGNUM,
+                                   dsc->insn_addr + dsc->insn_size);
+
 }
 
 #include "bfd-in2.h"
@@ -6205,7 +8635,7 @@ gdb_print_insn_arm (bfd_vma memaddr, disassemble_info *info)
    1 0 9 8 7 6 5 4 3 2 1 0 9 8 7 6 5 4 3 2 1 0 9 8 7 6 5 4 3 2 1 0
    C C C C 0 1 1 x x x x x x x x x x x x x x x x x x x x 1 x x x x
    
-   Even this may only true if the condition predicate is true. The
+   Even this may only true if the condition predicate is true.  The
    following use a condition predicate of ALWAYS so it is always TRUE.
    
    There are other ways of forcing a breakpoint.  GNU/Linux, RISC iX,
@@ -6250,7 +8680,7 @@ arm_breakpoint_from_pc (struct gdbarch *gdbarch, CORE_ADDR *pcptr, int *lenptr)
            {
              unsigned short inst1;
              inst1 = extract_unsigned_integer (buf, 2, byte_order_for_code);
-             if ((inst1 & 0xe000) == 0xe000 && (inst1 & 0x1800) != 0)
+             if (thumb_insn_size (inst1) == 4)
                {
                  *lenptr = tdep->thumb2_breakpoint_size;
                  return tdep->thumb2_breakpoint;
@@ -6322,9 +8752,9 @@ arm_extract_return_value (struct type *type, struct regcache *regs,
          break;
 
        default:
-         internal_error
-           (__FILE__, __LINE__,
-            _("arm_extract_return_value: Floating point model not supported"));
+         internal_error (__FILE__, __LINE__,
+                         _("arm_extract_return_value: "
+                           "Floating point model not supported"));
          break;
        }
     }
@@ -6335,8 +8765,9 @@ arm_extract_return_value (struct type *type, struct regcache *regs,
           || TYPE_CODE (type) == TYPE_CODE_REF
           || TYPE_CODE (type) == TYPE_CODE_ENUM)
     {
-      /* If the the type is a plain integer, then the access is
-        straight-forward.  Otherwise we have to play around a bit more.  */
+      /* If the type is a plain integer, then the access is
+        straight-forward.  Otherwise we have to play around a bit
+        more.  */
       int len = TYPE_LENGTH (type);
       int regno = ARM_A1_REGNUM;
       ULONGEST tmp;
@@ -6449,7 +8880,8 @@ arm_return_in_memory (struct gdbarch *gdbarch, struct type *type)
       for (i = 0; i < TYPE_NFIELDS (type); i++)
        {
          enum type_code field_type_code;
-         field_type_code = TYPE_CODE (check_typedef (TYPE_FIELD_TYPE (type, i)));
+         field_type_code = TYPE_CODE (check_typedef (TYPE_FIELD_TYPE (type,
+                                                                      i)));
 
          /* Is it a floating point type field?  */
          if (field_type_code == TYPE_CODE_FLT)
@@ -6511,9 +8943,9 @@ arm_store_return_value (struct type *type, struct regcache *regs,
          break;
 
        default:
-         internal_error
-           (__FILE__, __LINE__,
-            _("arm_store_return_value: Floating point model not supported"));
+         internal_error (__FILE__, __LINE__,
+                         _("arm_store_return_value: Floating "
+                           "point model not supported"));
          break;
        }
     }
@@ -6628,6 +9060,12 @@ arm_return_value (struct gdbarch *gdbarch, struct type *func_type,
        return RETURN_VALUE_STRUCT_CONVENTION;
     }
 
+  /* AAPCS returns complex types longer than a register in memory.  */
+  if (tdep->arm_abi != ARM_ABI_APCS
+      && TYPE_CODE (valtype) == TYPE_CODE_COMPLEX
+      && TYPE_LENGTH (valtype) > INT_REGISTER_SIZE)
+    return RETURN_VALUE_STRUCT_CONVENTION;
+
   if (writebuf)
     arm_store_return_value (valtype, regcache, writebuf);
 
@@ -6759,7 +9197,7 @@ arm_update_current_architecture (void)
   gdbarch_info_init (&info);
 
   if (!gdbarch_update_p (info))
-    internal_error (__FILE__, __LINE__, "could not update architecture");
+    internal_error (__FILE__, __LINE__, _("could not update architecture"));
 }
 
 static void
@@ -6841,8 +9279,9 @@ arm_show_fallback_mode (struct ui_file *file, int from_tty,
 {
   struct gdbarch_tdep *tdep = gdbarch_tdep (target_gdbarch);
 
-  fprintf_filtered (file, _("\
-The current execution mode assumed (when symbols are unavailable) is \"%s\".\n"),
+  fprintf_filtered (file,
+                   _("The current execution mode assumed "
+                     "(when symbols are unavailable) is \"%s\".\n"),
                    arm_fallback_mode_string);
 }
 
@@ -6852,8 +9291,9 @@ arm_show_force_mode (struct ui_file *file, int from_tty,
 {
   struct gdbarch_tdep *tdep = gdbarch_tdep (target_gdbarch);
 
-  fprintf_filtered (file, _("\
-The current execution mode assumed (even when symbols are available) is \"%s\".\n"),
+  fprintf_filtered (file,
+                   _("The current execution mode assumed "
+                     "(even when symbols are available) is \"%s\".\n"),
                    arm_force_mode_string);
 }
 
@@ -6945,10 +9385,8 @@ coff_sym_is_thumb (int val)
 static void
 arm_elf_make_msymbol_special(asymbol *sym, struct minimal_symbol *msym)
 {
-  /* Thumb symbols are of type STT_LOPROC, (synonymous with
-     STT_ARM_TFUNC).  */
-  if (ELF_ST_TYPE (((elf_symbol_type *)sym)->internal_elf_sym.st_info)
-      == STT_LOPROC)
+  if (ARM_SYM_BRANCH_TYPE (&((elf_symbol_type *)sym)->internal_elf_sym)
+      == ST_BRANCH_TO_THUMB)
     MSYMBOL_SET_SPECIAL (msym);
 }
 
@@ -7046,13 +9484,14 @@ arm_write_pc (struct regcache *regcache, CORE_ADDR pc)
    ABI, even if a NEON unit is not present.  REGNUM is the index of
    the quad register, in [0, 15].  */
 
-static void
+static enum register_status
 arm_neon_quad_read (struct gdbarch *gdbarch, struct regcache *regcache,
                    int regnum, gdb_byte *buf)
 {
   char name_buf[4];
   gdb_byte reg_buf[8];
   int offset, double_regnum;
+  enum register_status status;
 
   sprintf (name_buf, "d%d", regnum << 1);
   double_regnum = user_reg_map_name_to_regnum (gdbarch, name_buf,
@@ -7064,15 +9503,21 @@ arm_neon_quad_read (struct gdbarch *gdbarch, struct regcache *regcache,
   else
     offset = 0;
 
-  regcache_raw_read (regcache, double_regnum, reg_buf);
+  status = regcache_raw_read (regcache, double_regnum, reg_buf);
+  if (status != REG_VALID)
+    return status;
   memcpy (buf + offset, reg_buf, 8);
 
   offset = 8 - offset;
-  regcache_raw_read (regcache, double_regnum + 1, reg_buf);
+  status = regcache_raw_read (regcache, double_regnum + 1, reg_buf);
+  if (status != REG_VALID)
+    return status;
   memcpy (buf + offset, reg_buf, 8);
+
+  return REG_VALID;
 }
 
-static void
+static enum register_status
 arm_pseudo_read (struct gdbarch *gdbarch, struct regcache *regcache,
                 int regnum, gdb_byte *buf)
 {
@@ -7086,9 +9531,11 @@ arm_pseudo_read (struct gdbarch *gdbarch, struct regcache *regcache,
 
   if (gdbarch_tdep (gdbarch)->have_neon_pseudos && regnum >= 32 && regnum < 48)
     /* Quad-precision register.  */
-    arm_neon_quad_read (gdbarch, regcache, regnum - 32, buf);
+    return arm_neon_quad_read (gdbarch, regcache, regnum - 32, buf);
   else
     {
+      enum register_status status;
+
       /* Single-precision register.  */
       gdb_assert (regnum < 32);
 
@@ -7102,8 +9549,10 @@ arm_pseudo_read (struct gdbarch *gdbarch, struct regcache *regcache,
       double_regnum = user_reg_map_name_to_regnum (gdbarch, name_buf,
                                                   strlen (name_buf));
 
-      regcache_raw_read (regcache, double_regnum, reg_buf);
-      memcpy (buf, reg_buf + offset, 4);
+      status = regcache_raw_read (regcache, double_regnum, reg_buf);
+      if (status == REG_VALID)
+       memcpy (buf, reg_buf + offset, 4);
+      return status;
     }
 }
 
@@ -7203,9 +9652,14 @@ static int
 arm_register_reggroup_p (struct gdbarch *gdbarch, int regnum,
                          struct reggroup *group)
 {
-  /* FPS register's type is INT, but belongs to float_group.  */
+  /* FPS register's type is INT, but belongs to float_reggroup.  Beside
+     this, FPS register belongs to save_regroup, restore_reggroup, and
+     all_reggroup, of course.  */
   if (regnum == ARM_FPS_REGNUM)
-    return (group == float_reggroup);
+    return (group == float_reggroup
+           || group == save_reggroup
+           || group == restore_reggroup
+           || group == all_reggroup);
   else
     return default_register_reggroup_p (gdbarch, regnum, group);
 }
@@ -7333,7 +9787,8 @@ arm_gdbarch_init (struct gdbarch_info info, struct gdbarch_list *arches)
                 not.  */
              attr_arch = bfd_elf_get_obj_attr_int (info.abfd, OBJ_ATTR_PROC,
                                                    Tag_CPU_arch);
-             attr_profile = bfd_elf_get_obj_attr_int (info.abfd, OBJ_ATTR_PROC,
+             attr_profile = bfd_elf_get_obj_attr_int (info.abfd,
+                                                      OBJ_ATTR_PROC,
                                                       Tag_CPU_arch_profile);
              /* GCC specifies the profile for v6-M; RealView only
                 specifies the profile for architectures starting with
@@ -7511,8 +9966,13 @@ arm_gdbarch_init (struct gdbarch_info info, struct gdbarch_list *arches)
              if (!valid_p)
                break;
            }
+         if (!valid_p && i == 16)
+           valid_p = 1;
 
-         if (!valid_p && i != 16)
+         /* Also require FPSCR.  */
+         valid_p &= tdesc_numbered_register (feature, tdesc_data,
+                                             ARM_FPSCR_REGNUM, "fpscr");
+         if (!valid_p)
            {
              tdesc_data_cleanup (tdesc_data);
              return NULL;
@@ -7713,6 +10173,7 @@ arm_gdbarch_init (struct gdbarch_info info, struct gdbarch_list *arches)
   /* Add some default predicates.  */
   frame_unwind_append_unwinder (gdbarch, &arm_stub_unwind);
   dwarf2_append_unwinders (gdbarch);
+  frame_unwind_append_unwinder (gdbarch, &arm_exidx_unwind);
   frame_unwind_append_unwinder (gdbarch, &arm_prologue_unwind);
 
   /* Now we have tuned the configuration, set a few final things,
@@ -7723,6 +10184,9 @@ arm_gdbarch_init (struct gdbarch_info info, struct gdbarch_list *arches)
   if (tdep->arm_abi == ARM_ABI_AUTO)
     tdep->arm_abi = ARM_ABI_APCS;
 
+  /* Watchpoints are not steppable.  */
+  set_gdbarch_have_nonsteppable_watchpoint (gdbarch, 1);
+
   /* We used to default to FPA for generic ARM, but almost nobody
      uses that now, and we now provide a way for the user to force
      the model.  So default to the most useful variant.  */
@@ -7815,6 +10279,11 @@ _initialize_arm_tdep (void)
   arm_objfile_data_key
     = register_objfile_data_with_cleanup (NULL, arm_objfile_data_free);
 
+  /* Add ourselves to objfile event chain.  */
+  observer_attach_new_objfile (arm_exidx_new_objfile);
+  arm_exidx_data_key
+    = register_objfile_data_with_cleanup (NULL, arm_exidx_data_free);
+
   /* Register an ELF OS ABI sniffer for ARM binaries.  */
   gdbarch_register_osabi_sniffer (bfd_arch_arm,
                                  bfd_target_elf_flavour,
@@ -7822,6 +10291,10 @@ _initialize_arm_tdep (void)
 
   /* Initialize the standard target descriptions.  */
   initialize_tdesc_arm_with_m ();
+  initialize_tdesc_arm_with_iwmmxt ();
+  initialize_tdesc_arm_with_vfpv2 ();
+  initialize_tdesc_arm_with_vfpv3 ();
+  initialize_tdesc_arm_with_neon ();
 
   /* Get the number of possible sets of register names defined in opcodes.  */
   num_disassembly_options = get_arm_regname_num_options ();
@@ -7875,7 +10348,8 @@ _initialize_arm_tdep (void)
                       _("Show the disassembly style."),
                       helptext,
                       set_disassembly_style_sfunc,
-                      NULL, /* FIXME: i18n: The disassembly style is \"%s\".  */
+                      NULL, /* FIXME: i18n: The disassembly style is
+                               \"%s\".  */
                       &setarmcmdlist, &showarmcmdlist);
 
   add_setshow_boolean_cmd ("apcs32", no_class, &arm_apcs_32,
@@ -7883,7 +10357,8 @@ _initialize_arm_tdep (void)
                           _("Show usage of ARM 32-bit mode."),
                           _("When off, a 26-bit PC will be used."),
                           NULL,
-                          NULL, /* FIXME: i18n: Usage of ARM 32-bit mode is %s.  */
+                          NULL, /* FIXME: i18n: Usage of ARM 32-bit
+                                   mode is %s.  */
                           &setarmcmdlist, &showarmcmdlist);
 
   /* Add a command to allow the user to force the FPU model.  */
This page took 0.132444 seconds and 4 git commands to generate.